CN110008791B - 一种人脸区域确定方法、电子设备及可读存储介质 - Google Patents
一种人脸区域确定方法、电子设备及可读存储介质 Download PDFInfo
- Publication number
- CN110008791B CN110008791B CN201810011454.7A CN201810011454A CN110008791B CN 110008791 B CN110008791 B CN 110008791B CN 201810011454 A CN201810011454 A CN 201810011454A CN 110008791 B CN110008791 B CN 110008791B
- Authority
- CN
- China
- Prior art keywords
- face
- region
- target image
- image
- current window
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Geometry (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明实施例提供了一种人脸区域确定方法、电子设备及可读存储介质,用于提供一种在人脸局部被遮挡时也能检测出人脸所在的区域的方法。该方法包括:利用滑动窗口扫描目标图像;在每次扫描时,提取扫描到的当前窗口对应的HOG特征,将HOG特征输入到SVM分类器中,SVM分类器包括两个眼睛区域模型、左脸区域模型和右脸区域模型,如果当前窗口的图像属于SVM分类器中的人脸区域模型,基于当前窗口的图像所属的人脸区域模型,确定与当前窗口对应的所述目标图像中人脸所在的区域;在所述滑动窗口遍历所述目标图像后,获得与目标图像对应的N个人脸所在的区域,基于N个人脸所在的区域,确定目标图像中包含的人脸对应的人脸区域。
Description
技术领域
本发明涉及电子技术领域,尤其涉及一种人脸区域确定方法、电子设备及可读存储介质。
背景技术
目前人脸检测技术已经相对比较成熟了,人脸检测算法也有多种,有基于传统的机器学习算法,例如提取方向梯度直方图特征结合向量机分类的人脸检测算法HOG+SVM。也有基于深度学习的人脸检测算法,例如基于多任务卷积神经网络的人脸检测算法。但是不管是基于传统的机器学习算法还是基于深度学习算法的人脸检测,在人脸局部被遮挡的情况下,例如,戴口罩,或者只有半边脸在图像中,都无法检测出人脸所在的区域。
发明内容
本发明实施例提供了一种人脸区域确定方法、电子设备及可读存储介质,用于提供一种在人脸局部被遮挡时也能检测出人脸所在的区域的方法。
第一方面,本发明提供了一种人脸区域确定方法,包括:
利用滑动窗口扫描目标图像;
在每次扫描时,提取扫描到的当前窗口对应的图像的方向梯度直方图HOG特征,将所述HOG特征输入到向量机SVM分类器中,获得与所述当前窗口对应的图像对应的分类结果,所述分类结果表明所述当前窗口的图像是否属于所述SVM分类器中任何一个人脸区域模型,所述SVM分类器包括两个眼睛区域模型、左脸区域模型和右脸区域模型,如果所述分类结果表明所述当前窗口的图像属于所述SVM分类器中任何一个人脸区域模型,基于所述当前窗口的图像所属的人脸区域模型,确定与所述当前窗口对应的所述目标图像中人脸所在的区域;
在所述滑动窗口遍历所述目标图像后,获得与所述目标图像对应的N个人脸所在的区域,基于所述N个人脸所在的区域,确定所述目标图像中包含的人脸对应的人脸区域,N为大于0的整数。
可选的,在所述利用滑动窗口扫描目标图像之前,所述方法还包括:
训练获得所述SVM分类器的所述两个眼睛区域模型、所述左脸区域模型和所述右脸区域模型。
可选的,所述基于所述当前窗口的图像所属的人脸区域模型,确定与所述当前窗口对应的所述目标图像中人脸所在的区域,包括:
如果所述当前窗口的图像所属的人脸区域模型为所述两个眼睛区域模型,获取所述当前窗口的图像的对角两点在所述目标图像的坐标;
基于所述当前窗口的图像的对角两点在所述目标图像的坐标、两个眼睛与人脸的位置映射关系,确定与所述当前窗口对应的所述目标图像中人脸所在的区域。
可选的,所述基于所述当前窗口的图像所属的人脸区域模型,确定与所述当前窗口对应的所述目标图像中人脸所在的区域,包括:
如果所述当前窗口的图像所属的人脸区域模型为所述左脸区域模型,获取所述当前窗口的图像的对角两点在所述目标图像的坐标;
基于所述当前窗口的图像的对角两点在所述目标图像的坐标、左脸与人脸的位置映射关系,确定与所述当前窗口对应的所述目标图像中人脸所在的区域。
可选的,所述基于所述当前窗口的图像所属的人脸区域模型,确定与所述当前窗口对应的所述目标图像中人脸所在的区域,包括:
如果所述当前窗口的图像所属的人脸区域模型为所述右脸区域模型,获取所述当前窗口的图像的对角两点在所述目标图像的坐标;
基于所述当前窗口的图像的对角两点在所述目标图像的坐标、右脸与人脸的位置映射关系,确定与所述当前窗口对应的所述目标图像中人脸所在的区域。
可选的,所述基于所述N个人脸所在的区域,确定所述目标图像中包含的人脸对应的人脸区域,包括:
如果N等于1,确定所述目标图像中包含的1个人脸,确定该人脸对应的人脸区域为所述人脸所在的区域;
如果N大于1,基于每两个人脸所在的区域间重叠的区域,确定所述目标图像中包含的人脸数目以及每个人脸对应的人脸区域。
第二方面,本发明实施例提供一种电子设备,包括:
扫描单元,用于利用滑动窗口扫描目标图像;
第一确定单元,用于在每次扫描时,提取扫描到的当前窗口对应的图像的方向梯度直方图HOG特征,将所述HOG特征输入到SVM分类器中,获得与所述当前窗口对应的图像对应的分类结果,所述分类结果表明所述当前窗口的图像是否属于所述SVM分类器中任何一个人脸区域模型,所述SVM分类器包括两个眼睛区域模型、左脸区域模型和右脸区域模型,如果所述分类结果表明所述当前窗口的图像属于所述SVM分类器中任何一个人脸区域模型,基于所述当前窗口的图像所属的人脸区域模型,确定与所述当前窗口对应的所述目标图像中人脸所在的区域;
第二确定单元,用于在所述滑动窗口遍历所述目标图像后,获得与所述目标图像对应的N个人脸所在的区域,基于所述N个人脸所在的区域,确定所述目标图像中包含的人脸对应的人脸区域,N为大于0的整数。
可选的,所述电子设备还包括:
模型训练单元,用于在所述利用滑动窗口扫描目标图像之前,训练获得所述SVM分类器的所述两个眼睛区域模型、所述左脸区域模型和所述右脸区域模型。
可选的,所述第一确定单元用于:
如果所述当前窗口的图像所属的人脸区域模型为所述两个眼睛区域模型,获取所述当前窗口的图像的对角两点在所述目标图像的坐标;
基于所述当前窗口的图像的对角两点在所述目标图像的坐标、两个眼睛与人脸的位置映射关系,确定与所述当前窗口对应的所述目标图像中人脸所在的区域。
可选的,所述第一确定单元用于:
如果所述当前窗口的图像所属的人脸区域模型为所述左脸区域模型,获取所述当前窗口的图像的对角两点在所述目标图像的坐标;
基于所述当前窗口的图像的对角两点在所述目标图像的坐标、左脸与人脸的位置映射关系,确定与所述当前窗口对应的所述目标图像中人脸所在的区域。
可选的,所述第一确定单元用于:
如果所述当前窗口的图像所属的人脸区域模型为所述右脸区域模型,获取所述当前窗口的图像的对角两点在所述目标图像的坐标;
基于所述当前窗口的图像的对角两点在所述目标图像的坐标、右脸与人脸的位置映射关系,确定与所述当前窗口对应的所述目标图像中人脸所在的区域。
可选的,所述第二确定单元用于:
如果N等于1,确定所述目标图像中包含的1个人脸,确定该人脸对应的人脸区域为所述人脸所在的区域;
如果N大于1,基于每两个人脸所在的区域间重叠的区域,确定所述目标图像中包含的人脸数目以及每个人脸对应的人脸区域。
第三方面,本发明实施例提供一种电子设备,所述电子设备包括处理器,所述处理器用于执行存储器中存储的计算机程序时实现如前述第一方面实施例中所述的人脸区域确定方法的步骤。
第四方面,本发明实施例提供了一种可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现如前述第一方面实施例中所述的人脸区域确定方法的步骤。
本申请实施例中的上述一个或多个技术方案,至少具有如下一种或多种技术效果:
在本发明实施例的技术方案中,将人脸分为三个部分:两个眼睛区域、左脸区域和右脸区域。预先训练有SVM分类器的两个眼睛区域模型、左脸区域模型和右脸区域模型。进而,利用滑动窗口扫描目标图像,将当前窗口的图像的HOG特征输入到SVM分类器中,如果当前窗口的图像属于上述SVM分类器中上述三个人脸区域模型中任意一个,可基于当前窗口的图像所属的人脸区域模型,确定目标图像中人脸所在的区域。进一步,在滑动窗口遍历目标图像后,获得与目标图像对应的N个人脸所在的区域,需要基于所述N个人脸所在的区域,最终确定目标图像中包含的人脸对应的人脸区域。这样无论是遮挡了人脸的哪个部位,只要能检测出两个眼睛区域、左脸区域和右脸区域三个中的任何一个,就能判断当前窗口的图像所在的区域为人脸区域,进而确定出目标图像中人脸所在的区域。
附图说明
图1为本发明第一实施例中的一种人脸区域确定方法的流程图;
图2为本发明第二实施例中的电子设备的示意图;
图3为本发明第三实施例中电子设备的示意图。
具体实施方式
本发明实施例提供了一种人脸区域确定方法、电子设备及可读存储介质,用于提供一种在人脸局部被遮挡时也能检测出人脸所在的区域的方法。该方法包括:利用滑动窗口扫描目标图像;在每次扫描时,提取扫描到的当前窗口对应的图像的方向梯度直方图HOG特征,将所述HOG特征输入到向量机SVM分类器中,获得与所述当前窗口对应的图像对应的分类结果,所述分类结果表明所述当前窗口的图像是否属于所述SVM分类器中任何一个人脸区域模型,所述SVM分类器包括两个眼睛区域模型、左脸区域模型和右脸区域模型,如果所述分类结果表明所述当前窗口的图像属于所述SVM分类器中任何一个人脸区域模型,基于所述当前窗口的图像所属的人脸区域模型,确定与所述当前窗口对应的所述目标图像中人脸所在的区域;在所述滑动窗口遍历所述目标图像后,获得与所述目标图像对应的N个人脸所在的区域,基于所述N个人脸所在的区域,确定所述目标图像中包含的人脸对应的人脸区域,N为大于0的整数。
下面通过附图以及具体实施例对本发明技术方案做详细的说明,应当理解本申请实施例以及实施例中的具体特征是对本申请技术方案的详细的说明,而不是对本申请技术方案的限定,在不冲突的情况下,本申请实施例以及实施例中的技术特征可以相互组合。
本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。
实施例
请参考图1,本发明第一实施例提供一种人脸区域确定方法,该人脸区域确定方法包括如下步骤:
S101:利用滑动窗口扫描目标图像;
S102:在每次扫描时,提取扫描到的当前窗口对应的图像的方向梯度直方图HOG特征,将所述HOG特征输入到向量机SVM分类器中,获得与所述当前窗口对应的图像对应的分类结果,所述分类结果表明所述当前窗口的图像是否属于所述SVM分类器中任何一个人脸区域模型,所述SVM分类器包括两个眼睛区域模型、左脸区域模型和右脸区域模型,如果所述分类结果表明所述当前窗口的图像属于所述SVM分类器中任何一个人脸区域模型,基于所述当前窗口的图像所属的人脸区域模型,确定与所述当前窗口对应的所述目标图像中人脸所在的区域;
S103:在所述滑动窗口遍历所述目标图像后,获得与所述目标图像对应的N个人脸所在的区域,基于所述N个人脸所在的区域,确定所述目标图像中包含的人脸对应的人脸区域,N为大于0的整数。
其中,在所述利用滑动窗口扫描目标图像之前,所述方法还包括:
训练获得所述SVM分类器的所述两个眼睛区域模型、所述左脸区域模型和所述右脸区域模型。
具体的,在本实施例中,将人脸分为三个部分:两个眼睛区域、左脸区域和右脸区域。需要预先训练出SVM分类器的三个人脸区域模型,包括:两个眼睛区域模型、左脸区域模型和右脸区域模型。在收集人脸检测训练样本时,不收集完整的人脸样本,而是收集人的两眼区域、左边脸区域以及右边脸区域的样本。具体的,首先收集训练样本,正样本为人脸的两个眼睛区域、左脸区域和右脸区域,负样本为非以上三个区域的样本,样本的个数越多,人脸检测准确率越高。然后,进行样本训练,分别提取上述三个区域的样本以及上述负样本的HOG特征,然后分别将正负样本的HOG特征作为SVM的输入,得到三个人脸区域模型,包括两个眼睛区域模型、左脸区域模型和右脸区域模型。
在训练好SVM分类器的三个人脸区域模型后,执行本实施例中方法的S101,对目标图像采用滑动窗口进行扫描,每次扫描区域的大小可以预先设置,每次移动的距离也可以根据实际需要进行设定。
进而,通过步骤S102,在每次扫描时,需要确定当前窗口的图像所在的区域是否为人脸区域。具体的,提取当前窗口图像对应的HOG特征,将提取到的HOG特征输入到SVM分类器中,获得分类结果,分类结果表明当前窗口的图像是否属于上述三个人脸区域模型中任何一个,如果当前窗口的图像不属于两个眼睛区域模型、左脸区域模型和右脸区域模型中任何一个,表明当前窗口的图像的区域不属于人脸区域,滑动窗口移动至下一个窗口,重新对下一窗口的图像进行检测。如果当前窗口的图像属于两个眼睛区域模型、左脸区域模型和右脸区域模型中的一个,可根据所属的人脸区域模型,确定与当前窗口对应的目标图像中人脸所在的区域。
具体的,可分为以下三种情况:
第一种:如果所述当前窗口的图像所属的人脸区域模型为所述两个眼睛区域模型,获取所述当前窗口的图像的对角两点在所述目标图像的坐标;
基于所述当前窗口的图像的对角两点在所述目标图像的坐标、两个眼睛与人脸的位置映射关系,确定与所述当前窗口对应的所述目标图像中人脸所在的区域。
具体的,在本实施例中,当前窗口的图像所属的人脸区域模型为两个眼睛区域模型时,获取当前窗口的图像的对角两点在目标图像的坐标。假设当前滑动窗口对应两眼所在区域,该矩形区域左上角坐标A(x,y),右下角坐标为B(x,y),基于这对角两点在目标图像的坐标、两个眼睛与人脸的位置映射关系,确定出目标图像中人脸所在的区域的左上角坐标C和右下角坐标D,两个眼睛与人脸的位置映射关系可通过如下公式表述:
C.x=A.x-(B.x-A.x)*α1;
C.y=A.y-(B.y-A.y)*β1;
D.x=B.x+(B.x-A.x)*α2;
D.y=B.y+(B.y-A.y)*β2;
其中,在上式中,α1为1/5,β1为2,α2为1/5,β2为8。在具体实施过程中,α1、β1、α2、β2的具体数值可根据测试选取出最符合实际情况的参数。本实施例中,人脸检测是指在图像中检测出人脸的坐标位置,进而,通过求得目标图像中人脸所在的区域的对角线的两点的坐标,即上述中的左上角坐标C和右下角坐标D,即可通过左上角坐标C和右下角坐标D确定出一个矩形区域,该矩形区域即为目标图像中人脸所在的区域。
第二种:如果所述当前窗口的图像所属的人脸区域模型为所述左脸区域模型,获取所述当前窗口的图像的对角两点在所述目标图像的坐标;
基于所述当前窗口的图像的对角两点在所述目标图像的坐标、左脸与人脸的位置映射关系,确定与所述当前窗口对应的所述目标图像中人脸所在的区域。
具体的,在本实施例中,当前窗口的图像所属的人脸区域模型为左脸区域模型时,获取当前窗口的图像的对角两点在目标图像的坐标。假设当前滑动窗口对应左脸所在区域,该矩形的左上角坐标A(x,y),右下角坐标为B(x,y),基于这对角两点在目标图像的坐标、左脸与人脸的位置映射关系,确定出目标图像中人脸所在的区域的左上角坐标C和右下角坐标D,左脸与人脸的位置映射关系可通过如下公式表述:
C.x=A.x-(B.x-A.x)*α1;
C.y=A.y-(B.y-A.y)*β1;
D.x=B.x+(B.x-A.x)*α2;
D.y=B.y+(B.y-A.y)*β2;
其中,在上式中,α1为1/5,β1为1,α2为12/5,β2为1/2。在具体实施过程中,α1、β1、α2、β2的具体数值可根据测试选取出最符合实际情况的参数。本实施例中,人脸检测是指在图像中检测出人脸的坐标位置,进而,通过求得目标图像中人脸所在的区域的对角线的两点的坐标,即上述中的左上角坐标C和右下角坐标D,即可通过左上角坐标C和右下角坐标D确定出一个矩形区域,该矩形区域即为目标图像中人脸所在的区域。
第三种:如果所述当前窗口的图像所属的人脸区域模型为所述右脸区域模型,获取所述当前窗口的图像的对角两点在所述目标图像的坐标;
基于所述当前窗口的图像的对角两点在所述目标图像的坐标、右脸与人脸的位置映射关系,确定与所述当前窗口对应的所述目标图像中人脸所在的区域。
具体的,在本实施例中,当前窗口的图像所属的人脸区域模型为右脸区域模型时,获取当前窗口的图像的对角两点在目标图像的坐标。假设当前滑动窗口对应左脸所在区域,该矩形的左上角坐标A(x,y),右下角坐标为B(x,y),基于这对角两点在目标图像的坐标、右脸与人脸的位置映射关系,确定出目标图像中人脸所在的区域的左上角坐标C和右下角坐标D,右脸与人脸的位置映射关系可通过如下公式表述:
C.x=A.x-(B.x-A.x)*α1;
C.y=A.y-(B.y-A.y)*β1;
D.x=B.x+(B.x-A.x)*α2;
D.y=B.y+(B.y-A.y)*β2;
其中,在上式中,α1为6/5,β1为1,α2为7/5,β2为1/2。在具体实施过程中,α1、β1、α2、β2的具体数值可根据测试选取出最符合实际情况的参数。本实施例中,人脸检测是指在图像中检测出人脸的坐标位置,进而,通过求得目标图像中人脸所在的区域的对角线的两点的坐标,即上述中的左上角坐标C和右下角坐标D,即可通过左上角坐标C和右下角坐标D确定出一个矩形区域,该矩形区域即为目标图像中人脸所在的区域。
进一步,在本实施例中,在执行步骤S103时,可通过如下步骤实现:
如果N等于1,确定所述目标图像中包含的1个人脸,确定该人脸对应的人脸区域为所述人脸所在的区域;
如果N大于1,基于每两个人脸所在的区域间重叠的区域,确定所述目标图像中包含的人脸数目以及每个人脸对应的人脸区域。
具体的,在本实施例中,由于滑动窗口在遍历目标图像后,如果仅检测出一个人脸所在的区域,为第一区域S,确定目标图像中仅包括1个人脸,而且可能被部分遮挡,此时,确定该目标图像中的人脸区域为该第一区域S。
同时,如果滑动窗口检测图像的区域设置的较大,可能会出现当前窗口的图像属于不同人脸区域模型,比如:同时属于两个眼睛区域模型、左脸区域模型或者同时属于两个眼睛区域模型、右脸区域模型,进而确定出多个人脸所在的区域。或者,如果滑动窗口检测图像的区域设置的较小,可出现多个窗口的图像均属于同一人脸区域模型,在遍历目标图像后,可能会确定出多个人脸所在的区域。又如:在目标图像中具有多个人脸时,也可能会确定出多个人脸所在的区域。并且,如果滑动窗口设置的适中,根据上述三个人脸区域,可将目标图像分成三个区域,每个区域对应一个滑动窗口,如果人脸未被遮挡,或者以上三个区域只被遮挡了一个区域,那么同一个人脸将得到三个或者两个人脸区域,此时N大于1。
那么接下来需要判断得到的N个人脸所在的区域是否属于同一个人脸还是不同的人脸。比如:N个人脸所在的区域中包括第一个区域M和第二个区域N,第一个区域M的矩形左上角坐标为A(x,y),右下角为B(x,y),第二个区域N的矩形左上角坐标为C(x,y),右下角为D(x,y)。
如果基于第一个区域M的矩形左上角坐标为A(x,y),右下角为B(x,y),第二个区域N的矩形左上角坐标为C(x,y),右下角为D(x,y),确定出第一个区域M和第二个区域N的重叠区域为第一个区域M,即第一个区域M在第二个区域N的内部。或者,确定出第一个区域M和第二个区域N的重叠区域为第二个区域N,即第二个区域N在第一个区域M的内部,那么这两个区域属于同一个人脸,目标图像中包括1个人脸,该人脸的人脸区域取第一个区域M和第二个区域N中面积较大的那个为最终的人脸区域。
如果基于第一个区域M的矩形左上角坐标为A(x,y),右下角为B(x,y),第二个区域N的矩形左上角坐标为C(x,y),右下角为D(x,y),确定出第一个区域M和第二个区域N的重叠区域为空,即第一个区域M和第二个区域N没有相交,那么第一个区域M在第二个区域N属于不同的人脸区域,该目标图像中包括2个人脸,对应的人脸区域分别为取第一个区域M在第二个区域N。
如果基于第一个区域M的矩形左上角坐标为A(x,y),右下角为B(x,y),第二个区域N的矩形左上角坐标为C(x,y),右下角为D(x,y),确定出第一个区域M和第二个区域N的重叠区域为S,重叠区域S既不是第一个区域M,也不是第二个区域N,表明第一个区域M和第二个区域N局部相交,需判断第一个区域M和第二个区域N相交面积的比例θ,假设第一个区域M在第二个区域N的左上角,那么两个区域相交的矩形左上角坐标E,右下角坐标为F,则
E.x=C.x;
E.y=C.y;
F.x=B.x;
F.y=B.y;
θ=(F.x-E.x)*(F.y-E.y)/((B.x-A.x)*(B.y-A.y)+(D.x-C.x)*(D.y-C.y)-(F.x-E.x)*(F.y-E.y))
在本实施例中,如果θ>K,则认为第一个区域M和第二个区域N属于同一个人脸,最终的人脸区域左上角坐标为E,右下角坐标为F。如果θ<=K,则认为第一个区域M和第二个区域N属于不同的人脸,该目标图像中包括2个人脸,对应的人脸区域分别为取第一个区域M在第二个区域N。在本实施例中K取值为0.6,在具体实施过程中,还可以根据多次测试得到适配的K的值,在此,本申请不做限制。
在本发明实施例的技术方案中,将人脸分为三个部分:两个眼睛区域、左脸区域和右脸区域。预先训练有SVM分类器的两个眼睛区域模型、左脸区域模型和右脸区域模型。进而,利用滑动窗口扫描目标图像,将当前窗口的图像的HOG特征输入到SVM分类器中,如果当前窗口的图像属于上述SVM分类器中上述三个人脸区域模型中任意一个,可基于当前窗口的图像所属的人脸区域模型,确定目标图像中人脸所在的区域。进一步,在滑动窗口遍历目标图像后,获得与目标图像对应的N个人脸所在的区域,需要基于所述N个人脸所在的区域,最终确定目标图像中包含的人脸对应的人脸区域。这样无论是遮挡了人脸的哪个部位,只要能检测出两个眼睛区域、左脸区域和右脸区域三个中的任何一个,就能判断当前窗口的图像所在的区域为人脸区域,进而确定出目标图像中人脸所在的区域。
请参见图2,本发明的第二实施例提供了一种电子设备,所述电子设备包括:
扫描单元201,用于利用滑动窗口扫描目标图像;
第一确定单元202,用于在每次扫描时,提取扫描到的当前窗口对应的图像的方向梯度直方图HOG特征,将所述HOG特征输入到SVM分类器中,获得与所述当前窗口对应的图像对应的分类结果,所述分类结果表明所述当前窗口的图像是否属于所述SVM分类器中任何一个人脸区域模型,所述SVM分类器包括两个眼睛区域模型、左脸区域模型和右脸区域模型,如果所述分类结果表明所述当前窗口的图像属于所述SVM分类器中任何一个人脸区域模型,基于所述当前窗口的图像所属的人脸区域模型,确定与所述当前窗口对应的所述目标图像中人脸所在的区域;
第二确定单元203,用于在所述滑动窗口遍历所述目标图像后,获得与所述目标图像对应的N个人脸所在的区域,基于所述N个人脸所在的区域,确定所述目标图像中包含的人脸对应的人脸区域,N为大于0的整数。
所述电子设备还包括:
模型训练单元,用于在所述利用滑动窗口扫描目标图像之前,训练获得所述SVM分类器的所述两个眼睛区域模型、所述左脸区域模型和所述右脸区域模型。
具体的,在本实施例中,将人脸分为三个部分:两个眼睛区域、左脸区域和右脸区域。需要预先训练出SVM分类器的三个人脸区域模型,包括:两个眼睛区域模型、左脸区域模型和右脸区域模型。在收集人脸检测训练样本时,不收集完整的人脸样本,而是收集人的两眼区域、左边脸区域以及右边脸区域的样本。具体的,首先收集训练样本,正样本为人脸的两个眼睛区域、左脸区域和右脸区域,负样本为非以上三个区域的样本,样本的个数越多,人脸检测准确率越高。然后,模型训练单元进行样本训练,分别提取上述三个区域的样本以及上述负样本的HOG特征,然后分别将正负样本的HOG特征作为SVM的输入,得到三个人脸区域模型,包括两个眼睛区域模型、左脸区域模型和右脸区域模型。
在模型训练单元训练好SVM分类器的三个人脸区域模型后,扫描单元201对目标图像采用滑动窗口进行扫描,每次扫描区域的大小可以预先设置,每次移动的距离也可以根据实际需要进行设定。
进而,通过第一确定单元202,在每次扫描时,需要确定当前窗口的图像所在的区域是否为人脸区域。具体的,提取当前窗口图像对应的HOG特征,将提取到的HOG特征输入到SVM分类器中,获得分类结果,分类结果表明当前窗口的图像是否属于上述三个人脸区域模型中任何一个,如果当前窗口的图像不属于两个眼睛区域模型、左脸区域模型和右脸区域模型中任何一个,表明当前窗口的图像的区域不属于人脸区域,滑动窗口移动至下一个窗口,重新对下一窗口的图像进行检测。如果当前窗口的图像属于两个眼睛区域模型、左脸区域模型和右脸区域模型中的一个,可根据所属的人脸区域模型,确定与当前窗口对应的目标图像中人脸所在的区域。
具体的,可分为以下三种情况:
第一种:如果所述当前窗口的图像所属的人脸区域模型为所述两个眼睛区域模型,获取所述当前窗口的图像的对角两点在所述目标图像的坐标;
基于所述当前窗口的图像的对角两点在所述目标图像的坐标、两个眼睛与人脸的位置映射关系,确定与所述当前窗口对应的所述目标图像中人脸所在的区域。
具体的,在本实施例中,当前窗口的图像所属的人脸区域模型为两个眼睛区域模型时,获取当前窗口的图像的对角两点在目标图像的坐标。假设当前滑动窗口的矩形左上角坐标A(x,y),右下角坐标为B(x,y),基于这对角两点在目标图像的坐标、两个眼睛与人脸的位置映射关系,确定出目标图像中人脸所在的区域的左上角坐标C和右下角坐标D,计算方法如下:
C.x=A.x-(B.x-A.x)*α1;
C.y=A.y-(B.y-A.y)*β1;
D.x=B.x+(B.x-A.x)*α2;
D.y=B.y+(B.y-A.y)*β2;
其中,在上式中,α1为1/5,β1为2,α2为1/5,β2为8。在具体实施过程中,α1、β1、α2、β2的具体数值可根据测试选取出最符合实际情况的参数。本实施例中,人脸检测是指在图像中检测出人脸的坐标位置,进而,通过求得目标图像中人脸所在的区域的对角线的两点的坐标,即上述中的左上角坐标C和右下角坐标D,即可通过左上角坐标C和右下角坐标D确定出一个矩形区域,该矩形区域即为目标图像中人脸所在的区域。
第二种:如果所述当前窗口的图像所属的人脸区域模型为所述左脸区域模型,获取所述当前窗口的图像的对角两点在所述目标图像的坐标;
基于所述当前窗口的图像的对角两点在所述目标图像的坐标、左脸与人脸的位置映射关系,确定与所述当前窗口对应的所述目标图像中人脸所在的区域。
具体的,在本实施例中,当前窗口的图像所属的人脸区域模型为左脸区域模型时,获取当前窗口的图像的对角两点在目标图像的坐标。假设当前滑动窗口的矩形左上角坐标A(x,y),右下角坐标为B(x,y),基于这对角两点在目标图像的坐标、左脸与人脸的位置映射关系,确定出目标图像中人脸所在的区域的左上角坐标C和右下角坐标D,计算方法如下:
C.x=A.x-(B.x-A.x)*α1;
C.y=A.y-(B.y-A.y)*β1;
D.x=B.x+(B.x-A.x)*α2;
D.y=B.y+(B.y-A.y)*β2;
其中,在上式中,α1为1/5,β1为1,α2为12/5,β2为1/2。在具体实施过程中,α1、β1、α2、β2的具体数值可根据测试选取出最符合实际情况的参数。本实施例中,人脸检测是指在图像中检测出人脸的坐标位置,进而,通过求得目标图像中人脸所在的区域的对角线的两点的坐标,即上述中的左上角坐标C和右下角坐标D,即可通过左上角坐标C和右下角坐标D确定出一个矩形区域,该矩形区域即为目标图像中人脸所在的区域。
第三种:如果所述当前窗口的图像所属的人脸区域模型为所述右脸区域模型,获取所述当前窗口的图像的对角两点在所述目标图像的坐标;
基于所述当前窗口的图像的对角两点在所述目标图像的坐标、右脸与人脸的位置映射关系,确定与所述当前窗口对应的所述目标图像中人脸所在的区域。
具体的,在本实施例中,当前窗口的图像所属的人脸区域模型为右脸区域模型时,获取当前窗口的图像的对角两点在目标图像的坐标。假设当前滑动窗口的矩形左上角坐标A(x,y),右下角坐标为B(x,y),基于这对角两点在目标图像的坐标、右脸与人脸的位置映射关系,确定出目标图像中人脸所在的区域的左上角坐标C和右下角坐标D,计算方法如下:
C.x=A.x-(B.x-A.x)*α1;
C.y=A.y-(B.y-A.y)*β1;
D.x=B.x+(B.x-A.x)*α2;
D.y=B.y+(B.y-A.y)*β2;
其中,在上式中,α1为6/5,β1为1,α2为7/5,β2为1/2。在具体实施过程中,α1、β1、α2、β2的具体数值可根据测试选取出最符合实际情况的参数。本实施例中,人脸检测是指在图像中检测出人脸的坐标位置,进而,通过求得目标图像中人脸所在的区域的对角线的两点的坐标,即上述中的左上角坐标C和右下角坐标D,即可通过左上角坐标C和右下角坐标D确定出一个矩形区域,该矩形区域即为目标图像中人脸所在的区域。
进一步,在本实施例中,第二确定单元203具体用于:
如果N等于1,确定所述目标图像中包含的1个人脸,确定该人脸对应的人脸区域为所述人脸所在的区域;
如果N大于1,基于每两个人脸所在的区域间重叠的区域,确定所述目标图像中包含的人脸数目以及每个人脸对应的人脸区域。
具体的,在本实施例中,由于滑动窗口在遍历目标图像后,如果仅检测出一个人脸所在的区域,为第一区域S,确定目标图像中仅包括1个人脸,而且可能被部分遮挡,此时,确定该目标图像中的人脸区域为该第一区域S。
同时,如果滑动窗口检测图像的区域设置的较大,可能会出现当前窗口的图像属于不同人脸区域模型,比如:同时属于两个眼睛区域模型、左脸区域模型或者同时属于两个眼睛区域模型、右脸区域模型,进而确定出多个人脸所在的区域。或者,如果滑动窗口检测图像的区域设置的较小,可出现多个窗口的图像均属于同一人脸区域模型,在遍历目标图像后,可能会确定出多个人脸所在的区域。又如:在目标图像中具有多个人脸时,也可能会确定出多个人脸所在的区域。并且,如果滑动窗口设置的适中,根据上述三个人脸区域,可将目标图像分成三个区域,每个区域对应一个滑动窗口,如果人脸未被遮挡,或者以上三个区域只被遮挡了一个区域,那么同一个人脸将得到三个或者两个人脸区域,此时N大于1。
那么接下来需要判断得到的N个人脸所在的区域是否属于同一个人脸还是不同的人脸。比如:N个人脸所在的区域中包括第一个区域M和第二个区域N,第一个区域M的矩形左上角坐标为A(x,y),右下角为B(x,y),第二个区域N的矩形左上角坐标为C(x,y),右下角为D(x,y)。
如果基于第一个区域M的矩形左上角坐标为A(x,y),右下角为B(x,y),第二个区域N的矩形左上角坐标为C(x,y),右下角为D(x,y),确定出第一个区域M和第二个区域N的重叠区域为第一个区域M,即第一个区域M在第二个区域N的内部。或者,确定出第一个区域M和第二个区域N的重叠区域为第二个区域N,即第二个区域N在第一个区域M的内部,那么这两个区域属于同一个人脸,目标图像中包括1个人脸,该人脸的人脸区域取第一个区域M和第二个区域N中面积较大的那个为最终的人脸区域。
如果基于第一个区域M的矩形左上角坐标为A(x,y),右下角为B(x,y),第二个区域N的矩形左上角坐标为C(x,y),右下角为D(x,y),确定出第一个区域M和第二个区域N的重叠区域为空,即第一个区域M和第二个区域N没有相交,那么第一个区域M在第二个区域N属于不同的人脸区域,该目标图像中包括2个人脸,对应的人脸区域分别为取第一个区域M在第二个区域N。
如果基于第一个区域M的矩形左上角坐标为A(x,y),右下角为B(x,y),第二个区域N的矩形左上角坐标为C(x,y),右下角为D(x,y),确定出第一个区域M和第二个区域N的重叠区域为S,重叠区域S既不是第一个区域M,也不是第二个区域N,表明第一个区域M和第二个区域N局部相交,需判断第一个区域M和第二个区域N相交面积的比例θ,假设第一个区域M在第二个区域N的左上角,那么两个区域相交的矩形左上角坐标E,右下角坐标为F,则:
E.x=C.x;
E.y=C.y;
F.x=B.x;
F.y=B.y;
θ=(F.x-E.x)*(F.y-E.y)/((B.x-A.x)*(B.y-A.y)+(D.x-C.x)*(D.y-C.y)-(F.x-E.x)*(F.y-E.y))
在本实施例中,如果θ>K,则认为第一个区域M和第二个区域N属于同一个人脸,最终的人脸区域左上角坐标为E,右下角坐标为F。如果θ<=K,则认为第一个区域M和第二个区域N属于不同的人脸,该目标图像中包括2个人脸,对应的人脸区域分别为取第一个区域M在第二个区域N。在本实施例中K取值为0.6,在具体实施过程中,还可以根据多次测试得到适配的K的值,在此,本申请不做限制。
请参见图3,本发明的第三实施例提供了一种电子设备,该实施例的电子设备包括:处理器301、存储器302以及存储在所述存储器中并可在所述处理器上运行的计算机程序,例如第一实施例中人脸区域确定方法对应的程序。所述处理器执行所述计算机程序时实现上述第一实施例中各路径检测中的步骤。或者,所述处理器执行所述计算机程序时实现上述第二实施例的电子设备中各模块/单元的功能。
示例性的,所述计算机程序可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器中,并由所述处理器执行,以完成本发明。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序在所述计算机装置中的执行过程。例如,所述计算机程序可以被分割成扫描单元、第一确定单元、第二确定单元的功能,各单元具体功能如下:
扫描单元,用于利用滑动窗口扫描目标图像;
第一确定单元,用于在每次扫描时,提取扫描到的当前窗口对应的图像的方向梯度直方图HOG特征,将所述HOG特征输入到SVM分类器中,获得与所述当前窗口对应的图像对应的分类结果,所述分类结果表明所述当前窗口的图像是否属于所述SVM分类器中任何一个人脸区域模型,所述SVM分类器包括两个眼睛区域模型、左脸区域模型和右脸区域模型,如果所述分类结果表明所述当前窗口的图像属于所述SVM分类器中任何一个人脸区域模型,基于所述当前窗口的图像所属的人脸区域模型,确定与所述当前窗口对应的所述目标图像中人脸所在的区域;
第二确定单元,用于在所述滑动窗口遍历所述目标图像后,获得与所述目标图像对应的N个人脸所在的区域,基于所述N个人脸所在的区域,确定所述目标图像中包含的人脸对应的人脸区域,N为大于0的整数。
所述电子设备可包括,但不仅限于,处理器、存储器。本领域技术人员可以理解,所述示意图3仅仅是计算机装置的示例,并不构成对电子设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述电子设备还可以包括输入输出设备、网络接入设备、总线等。
所称处理器301可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等,所述处理器是所述计算机装置的控制中心,利用各种接口和线路连接整个计算机装置的各个部分。
所述存储器302可用于存储所述计算机程序和/或模块,所述处理器通过运行或执行存储在所述存储器内的计算机程序和/或模块,以及调用存储在存储器内的数据,实现所述计算机装置的各种功能。所述存储器可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、视频数据等)等。此外,存储器可以包括高速随机存取存储器,还可以包括非易失性存储器,例如硬盘、内存、插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)、至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
进一步,该电子设备所包括的处理器301还具有以下功能:
在所述利用滑动窗口扫描目标图像之前,训练获得所述SVM分类器的所述两个眼睛区域模型、所述左脸区域模型和所述右脸区域模型。
进一步,该电子设备所包括的处理器301还具有以下功能:
如果所述当前窗口的图像所属的人脸区域模型为所述两个眼睛区域模型,获取所述当前窗口的图像的对角两点在所述目标图像的坐标;
基于所述当前窗口的图像的对角两点在所述目标图像的坐标、两个眼睛与人脸的位置映射关系,确定与所述当前窗口对应的所述目标图像中人脸所在的区域。
进一步,该电子设备所包括的处理器301还具有以下功能:
如果所述当前窗口的图像所属的人脸区域模型为所述左脸区域模型,获取所述当前窗口的图像的对角两点在所述目标图像的坐标;
基于所述当前窗口的图像的对角两点在所述目标图像的坐标、左脸与人脸的位置映射关系,确定与所述当前窗口对应的所述目标图像中人脸所在的区域。
进一步,该电子设备所包括的处理器301还具有以下功能:
如果所述当前窗口的图像所属的人脸区域模型为所述右脸区域模型,获取所述当前窗口的图像的对角两点在所述目标图像的坐标;
基于所述当前窗口的图像的对角两点在所述目标图像的坐标、右脸与人脸的位置映射关系,确定与所述当前窗口对应的所述目标图像中人脸所在的区域。
进一步,该电子设备所包括的处理器301还具有以下功能:
如果N等于1,确定所述目标图像中包含的1个人脸,确定该人脸对应的人脸区域为所述人脸所在的区域;
如果N大于1,基于每两个人脸所在的区域间重叠的区域,确定所述目标图像中包含的人脸数目以及每个人脸对应的人脸区域。
本发明第四实施例提供了一种计算机可读存储介质,其上存储有计算机程序,本发明第二实施例中的所述电子设备集成的功能单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述第一实施例的人脸区域确定方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
尽管已描述了本发明的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
Claims (5)
1.一种人脸区域确定方法,其特征在于,包括:
利用滑动窗口扫描目标图像;
在每次扫描时,提取扫描到的当前窗口对应的图像的方向梯度直方图HOG特征,将所述HOG特征输入到向量机SVM分类器中,获得与所述当前窗口对应的图像对应的分类结果,所述分类结果表明所述当前窗口的图像是否属于所述SVM分类器中任何一个人脸区域模型,所述SVM分类器包括两个眼睛区域模型、左脸区域模型和右脸区域模型,如果所述分类结果表明所述当前窗口的图像属于所述SVM分类器中任何一个人脸区域模型,基于所述当前窗口的图像所属的人脸区域模型,确定与所述当前窗口对应的所述目标图像中人脸所在的区域,包括:
如果所述当前窗口的图像所属的人脸区域模型为所述两个眼睛区域模型,获取所述当前窗口的图像的对角两点在所述目标图像的坐标;
基于所述当前窗口的图像的对角两点在所述目标图像的坐标、两个眼睛与人脸的位置映射关系,确定与所述当前窗口对应的所述目标图像中人脸所在的区域;
如果所述当前窗口的图像所属的人脸区域模型为所述左脸区域模型,获取所述当前窗口的图像的对角两点在所述目标图像的坐标;
基于所述当前窗口的图像的对角两点在所述目标图像的坐标、左脸与人脸的位置映射关系,确定与所述当前窗口对应的所述目标图像中人脸所在的区域;
如果所述当前窗口的图像所属的人脸区域模型为所述右脸区域模型,获取所述当前窗口的图像的对角两点在所述目标图像的坐标;
基于所述当前窗口的图像的对角两点在所述目标图像的坐标、右脸与人脸的位置映射关系,确定与所述当前窗口对应的所述目标图像中人脸所在的区域;
在所述滑动窗口遍历所述目标图像后,获得与所述目标图像对应的N个人脸所在的区域,基于所述N个人脸所在的区域,确定所述目标图像中包含的人脸对应的人脸区域,N为大于0的整数;
如果N等于1,确定所述目标图像中包含的1个人脸,确定该人脸对应的人脸区域为所述人脸所在的区域;
如果N大于1,基于每两个人脸所在的区域间重叠的区域,确定所述目标图像中包含的人脸数目以及每个人脸对应的人脸区域。
2.如权利要求1所述的方法,其特征在于,在所述利用滑动窗口扫描目标图像之前,所述方法还包括:
训练获得所述SVM分类器的所述两个眼睛区域模型、所述左脸区域模型和所述右脸区域模型。
3.一种电子设备,其特征在于,包括:
扫描单元,用于利用滑动窗口扫描目标图像;
第一确定单元,用于在每次扫描时,提取扫描到的当前窗口对应的图像的方向梯度直方图HOG特征,将所述HOG特征输入到SVM分类器中,获得与所述当前窗口对应的图像对应的分类结果,所述分类结果表明所述当前窗口的图像是否属于所述SVM分类器中任何一个人脸区域模型,所述SVM分类器包括两个眼睛区域模型、左脸区域模型和右脸区域模型,如果所述分类结果表明所述当前窗口的图像属于所述SVM分类器中任何一个人脸区域模型,基于所述当前窗口的图像所属的人脸区域模型,确定与所述当前窗口对应的所述目标图像中人脸所在的区域;
第二确定单元,用于在所述滑动窗口遍历所述目标图像后,获得与所述目标图像对应的N个人脸所在的区域,基于所述N个人脸所在的区域,确定所述目标图像中包含的人脸对应的人脸区域,N为大于0的整数;
如果N等于1,确定所述目标图像中包含的1个人脸,确定该人脸对应的人脸区域为所述人脸所在的区域;
如果N大于1,基于每两个人脸所在的区域间重叠的区域,确定所述目标图像中包含的人脸数目以及每个人脸对应的人脸区域。
4.一种电子设备,其特征在于,所述电子设备包括处理器,所述处理器用于执行存储器中存储的计算机程序时实现如权利要求1-2中任一项所述的人脸区域确定方法的步骤。
5.一种可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1-2中任一项所述的人脸区域确定方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810011454.7A CN110008791B (zh) | 2018-01-05 | 2018-01-05 | 一种人脸区域确定方法、电子设备及可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810011454.7A CN110008791B (zh) | 2018-01-05 | 2018-01-05 | 一种人脸区域确定方法、电子设备及可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110008791A CN110008791A (zh) | 2019-07-12 |
CN110008791B true CN110008791B (zh) | 2021-04-27 |
Family
ID=67164557
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810011454.7A Active CN110008791B (zh) | 2018-01-05 | 2018-01-05 | 一种人脸区域确定方法、电子设备及可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110008791B (zh) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103593654A (zh) * | 2013-11-13 | 2014-02-19 | 智慧城市系统服务(中国)有限公司 | 一种人脸定位的方法与装置 |
CN104361358A (zh) * | 2014-11-21 | 2015-02-18 | 江苏刻维科技信息有限公司 | 一种自动化人脸五官与面部轮廓辨识方法 |
CN106096551A (zh) * | 2016-06-14 | 2016-11-09 | 湖南拓视觉信息技术有限公司 | 人脸部位识别的方法和装置 |
-
2018
- 2018-01-05 CN CN201810011454.7A patent/CN110008791B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103593654A (zh) * | 2013-11-13 | 2014-02-19 | 智慧城市系统服务(中国)有限公司 | 一种人脸定位的方法与装置 |
CN104361358A (zh) * | 2014-11-21 | 2015-02-18 | 江苏刻维科技信息有限公司 | 一种自动化人脸五官与面部轮廓辨识方法 |
CN106096551A (zh) * | 2016-06-14 | 2016-11-09 | 湖南拓视觉信息技术有限公司 | 人脸部位识别的方法和装置 |
Non-Patent Citations (2)
Title |
---|
Implementation of Face Detection System Using Haar Classifiers;H. Blaiech et al.;《ResearchGate》;20120430;第1-6页 * |
基于人眼特征的多姿态人脸检测;葛健夫 等;《图形图像》;20121231;第16-18、29页 * |
Also Published As
Publication number | Publication date |
---|---|
CN110008791A (zh) | 2019-07-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108121986B (zh) | 目标检测方法及装置、计算机装置和计算机可读存储介质 | |
CN109325954B (zh) | 图像分割方法、装置及电子设备 | |
CN107358149B (zh) | 一种人体姿态检测方法和装置 | |
CN109918969B (zh) | 人脸检测方法及装置、计算机装置和计算机可读存储介质 | |
WO2021139324A1 (zh) | 图像识别方法、装置、计算机可读存储介质及电子设备 | |
CN106803067B (zh) | 一种人脸图像质量评估方法及装置 | |
US20190188528A1 (en) | Text detection method and apparatus, and storage medium | |
US10803357B2 (en) | Computer-readable recording medium, training method, and object detection device | |
CN105144239B (zh) | 图像处理装置、图像处理方法 | |
CN109272016B (zh) | 目标检测方法、装置、终端设备和计算机可读存储介质 | |
CN110781770B (zh) | 基于人脸识别的活体检测方法、装置及设备 | |
CN110582783B (zh) | 训练装置、图像识别装置、训练方法和计算机可读信息存储介质 | |
CN110136052B (zh) | 一种图像处理方法、装置和电子设备 | |
CN110570390B (zh) | 一种图像检测方法及装置 | |
CN112396050B (zh) | 图像的处理方法、设备以及存储介质 | |
CN110570442A (zh) | 一种复杂背景下轮廓检测方法、终端设备及存储介质 | |
CN115631112B (zh) | 一种基于深度学习的建筑轮廓矫正方法及装置 | |
CN111325107A (zh) | 检测模型训练方法、装置、电子设备和可读存储介质 | |
JP2019220014A (ja) | 画像解析装置、画像解析方法及びプログラム | |
CN111932545A (zh) | 图像处理方法、目标计数方法及其相关装置 | |
CN110210425B (zh) | 人脸识别方法、装置、电子设备及存储介质 | |
CN115294162B (zh) | 目标识别方法、装置、设备及存储介质 | |
CN110008791B (zh) | 一种人脸区域确定方法、电子设备及可读存储介质 | |
CN114067186B (zh) | 一种行人检测方法、装置、电子设备及存储介质 | |
CN110309859A (zh) | 一种图像真伪检测方法、装置及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |