CN105956552A - 一种人脸黑名单监测方法 - Google Patents
一种人脸黑名单监测方法 Download PDFInfo
- Publication number
- CN105956552A CN105956552A CN201610280859.1A CN201610280859A CN105956552A CN 105956552 A CN105956552 A CN 105956552A CN 201610280859 A CN201610280859 A CN 201610280859A CN 105956552 A CN105956552 A CN 105956552A
- Authority
- CN
- China
- Prior art keywords
- face
- width
- image
- nose
- key point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Collating Specific Patterns (AREA)
Abstract
一种人脸黑名单监测方法,其结合全局特征和局部特征,首先训练多角度人脸模板用于人脸检测;在此基础上检测人脸部分五官关键点并定位;进一步地,对人脸进行归一化后,分别针对人脸完整区域提取Gabor特征,针对局部区域提取LDP特征;最后进行融合全局与局部特征的人脸相似度计算,实现人脸黑名单监测。本发明既保留人脸全局相似性,又体现局部差异性,可更好地反映人脸特性。
Description
技术领域
本发明属于人脸识别技术领域,具体涉及一种基于人脸识别的黑名单监测方法。
背景技术
随着视频监控系统的大规模应用,在车站、机场、街道等重要场所安装有大量监控摄像机,可获得充足的人员面部视频图像,从而使得基于人脸识别的黑名单监测成为可能,在公共安全管理等领域有重要应用前景。其关键技术是面向监控视频的人脸识别,相关算法的优劣直接决定人脸黑名单监测的效果和速度。
现有的人脸识别方法,如公开号为104899576A,申请号为201510350083.1,其公开了一种基于Gabor变换和HOG的人脸识别特征提取方法。该方法首先对含人脸图像进行提取并归一化,通过生成40个不同方向大小的Gabor滤波器对归一化人脸进行分别滤波,得到多个方向和大小的Gabor特征,随后对得到的Gabor特征进行HOG处理,进一步得到Gabor特征的梯度直方图信息,使得Gabor滤波结果增强。
公开号为104700089A,申请号为201510134189.8,其公开了一种基于Gabor小波和SB2DLPP的人脸识别方法,该方法主要包括预处理、特征提取、特征降维和分类识别四个步骤。(1)对已知的人脸库中所有的人脸图像进行预处理,包括尺度归一化和直方图均衡化;(2)利用Gabor小波对预处理过的人脸图像进行特征提取;(3)引入类别信息,对步骤(2)提取到的高维图像特征应用有监督的双向二维局部保持投影(SB2DLPP)算法进行降维,从而提取出映射到低维子空间的特征矩阵;(4)采用最近邻分类器进行分类识别。
公开号为103679151A,申请号为201310703205.1,其公开了一种融合LBP、Gabor特征的人脸聚类方法,步骤包括:将图像的R、G、B三个通道转换为灰度图,得到图像L;Gabor特征提取;LBP特征提取;分层人脸聚类等。
公开号为104820844A,申请号为201510183686.7,提供一种人脸识别方法,包括:对模板人脸图像和待识别人脸图像进行Gabor小波人脸图像特征提取,获得图像特征;将由所述待识别人脸图像获得的图像特征分成正负样本;使用Adaboost对所述正负样本进行特征选择,获得明显特征,使用Adaboost对由所述人脸图像获得的图像特征进行特征选择,获得特征子空间;使用环形对称划分的SVM对所述特征子空间进行特征训练获得ECC编码矩阵;使用环形对称划分的SVM及所述ECC编码矩阵对所述明显特征进行特征匹配。
公开号为102737234A,申请号为201210212659.4,公开了一种基于Gabor滤波和联合稀疏模型的人脸识别方法,该方法首先通过Gabor滤波对人脸图像进行滤波,提取对光照及表情不敏感的特征,然后利用提取出的Gabor特征作为联合稀疏模型的输入,提取每类训练图像的公有部分及私有部分的和;最后利用所提取的公有部分及私有部分的和来构造字典,采用SRC(稀疏表示分类)方法获得待识别人脸图像在构造字典上的稀疏表示,根据稀疏表示系数得到识别结果。
上述方法主要以Gabor特征为基础提取人脸特征,各有优点,但都是针对人脸全局特征进行处理,忽视了人脸局部差异,因此存在一定的缺陷。同时针对人脸识别领域一直存在的角度、光照等影响,鲁棒性不佳的缺陷。
发明内容
针对现有技术存在的问题,本发明提出一种人脸黑名单监测方法。该结合全局特征和局部特征,首先训练多角度人脸模板用于人脸检测;在此基础上检测人脸部分五官关键点并定位;进一步地,对人脸进行归一化后,分别针对人脸完整区域提取Gabor特征,针对局部区域提取LDP特征;最后进行融合全局与局部特征的人脸相似度计算,实现人脸黑名单监测。
一种人脸黑名单监测方法,包括以下步骤:
S1:基于多角度人脸检测分类器,检测人脸区域;
S2:针对人脸区域,检测部分五官特征点;
S3:基于部分五官特征点坐标,实现人脸归一化;
S4:针对归一化后的完整人脸提取Gabor特征;
S5:针对归一化后的部分五官区域提取LDP特征;
S6:计算人脸相似度,实现黑名单监测。
其中,步骤S1中是利用多角度人脸训练基于Haar特征和Adaboost分类器的人脸检测分类器。具体包括以下步骤:
S1.1:利用常规视频图像采集设备(监控摄像机、相机等等具有视频采集功能的设备),分别采集正面人脸、正面人脸向左水平偏转5度,10度,正面人脸向右水平偏转5度,10度,正面人脸向上偏转5度,10度,正面人脸向下偏转5度,10度的图像,每个角度的人脸图像不少于1000幅;
S1.2:针对每种角度图像,人工裁剪人脸区域,并缩放至128×128像素,作为正样本;
S1.3:采集同样数量的不含人脸图像,作为负样本;
S1.4:针对每种角度图像,训练其基于Haar特征和Adaboost分类器的人脸检测分类器。
步骤S2中,针对步骤S1中检测到的人脸区域,基于Flandmark方法检测人脸部分五官关键点。参照图2,本发明中人脸部分五官关键点包括7个,第一个五官关键点为鼻尖0、第二个五官关键点为左眼右眼角1、第三个五官关键点为右眼左眼角2、第四个五官关键点为左嘴角3、第五个五官关键点为右嘴角4、第六个五官关键点为左眼左眼角5和第七个五官关键点为右眼右眼角6;其中0、1、2、3、4、5、6分别为第一个五官关键点至第七个五官关键点对应的序号。其中:Flandmark方法可以参考文献:Michal Uˇriˇc′aˇr,Vojtˇech Franc andV′aclav Hlav′aˇc.Detector of Facial Landmarks Learned by The Structured Output Svm.International Conference on ComputerVision Theory andApplications.2012,547~556.
步骤S3中,在步骤S2提取人脸部分五官关键点的基础上,将人脸部分中包含人脸部分五官关键点、眉毛、鼻子、嘴巴的正方形区域定义为人脸核心区域,如图3中的方框以内的区域就是人脸核心区域。
计算核心人脸区域坐标,并将核心人脸区域缩放为128×128像素的灰度图像。具体步骤为:
S3.1:计算人脸核心区域宽度Face_width、高度Face_height分别为:
Face_width=(P6.x-P5.x)×1.6
Face_height=Face_width
S3.2:计算人脸核心区域左上角起始点坐标为:
Face.x=P5.x-(P6.x-P5.x)×0.3
Face.y=P5.y-(P6.x-P5.x)×0.3
其中:Pi.x,Pi.y分别表示序号为i五官关键点的横、纵坐标,如P6.x表示图2中序号为6的五官关键点(即右眼右眼角)的横坐标,P5.x表示图2中序号为5的五官关键点(即左眼左眼角)的横坐标,P5.y表示图2中序号为5的五官关键点(即左眼左眼角)的纵坐标。
步骤S4中,令步骤S3提取到归一化人脸灰度图像为I,使用Gabor变换在0~3四个尺度,1~6六个邻域方向对I做卷积运算,然后提取其全脸Gabor特征。
步骤S5的具体步骤包括:
S5.1针对原始视频监控图像,基于五官关键点获取左眼区域,令其宽度为Leye.width,高度为Leye.height,中心横坐标为Leye.x,中心纵坐标为Leye.y,计算方法为:
Leye.width=P1.x-P5.x
Leye.height=Leye.width
Leye.x=P5.x
Leye.y=P5.y-Leye.height/2
然后将左眼区域图像缩放至50×50像素的灰度图像;
S5.2:针对原始视频监控图像,基于五官关键点获取右眼区域,令其宽度为Reye.width,高度为Reye.height,中心横坐标为Reye.x,中心纵坐标为Reye.y,计算方法为:
Reye.width=P6.x-P2.x
Reye.height=Reye.width
Reye.x=P2.x
Reye.y=P2.y-Reye.height/2
然后将右眼区域图像缩放至50×50像素的灰度图像;
S5.3:针对原始视频监控图像,基于五官关键点获取鼻尖区域,令其宽度为Nose.width,高度为Nose.height,中心横坐标为Nose.x,中心纵坐标为Nose.y,计算方法为:
Nose.width=P6.x-P2.x
Nose.height=Nose.width
Nose.x=P0.x-Nose.width/2
Nose.y=P0.y-Nose.height/2
然后将鼻尖区域图像缩放至50×50像素的灰度图像;
S5.4:针对原始视频监控图像,基于五官关键点获取嘴巴区域,令其宽度为Mouth.width,高度为Mouth.height,中心横坐标为Mouth.x,中心纵坐标为Mouth.y,计算方法为:
Mouth.width=P4.x-P3.x
Mouth.height=Mouth.width
Mouth.x=P3.x
Mouth.y=P3.y-Mouth.height/2
然后将嘴巴区域图像缩放至50×50像素的灰度图像;
S5.5:分别针对步骤S5.1至S5.4中所述的4个区域,提取其局部定向模式(Local DerivativePattern,LDP)特征,得到四个局部LDP特征。
步骤S6的具体步骤包括:
S6.1:针对视频监控系统中获得每一帧图像,分别采取步骤S1至S5的方法,提取其全脸Gabor特征F1eature0和四个局部LDP特征F1eature1、F1eature2、F1eature3、F1eature4;
S6.2:针对黑名单中的人脸,分别采取步骤S1至S5的方法,提取其核心人脸区域的全脸Gabor特征F2eature0,和四个局部区域LDP特征F2eature1、F2eature2、F2eature3、F2eature4;
S6.3:针对步骤S6.1和S6.2中获得的5种特征,分别计算监控视频图像人脸与黑名单人脸的欧式距离,令其为Di,i=0,1,2,…,4,分别表示全局Gabor特征、局部LDP特征的欧氏距离;
S6.4:计算上述5种特征基于欧氏距离的相似度
S6.5:计算5种相似度的平均值
S6.6:设定相似度阈值Fth,本发明Fth=0.88,如果则判断视频人脸与黑名单人脸高度相似,返回监测结果。
与现有技术相比,本发明的优点在于:
1、在人脸检测环节分别调用多角度人脸分类器进行检测,可有效减轻角度对人脸检测的影响。
2、相对于传统方法基于人脸检测后的笼统区域进行尺寸归一化,人脸部分五官关键点可以更精确地标定人脸位置,从而有利于提高后续处理精度。
3、本发明既保留人脸全局相似性,又体现局部差异性,可更好地反映人脸特性。
附图说明
图1为本发明的流程图;
图2为本发明中人脸关键点序号示意图;
图3为本发明人脸核心区域示意图
图4为本发明实施例中采集的原始监控视频图像
图5为本发明实施例中获得的人脸区域图
图6示出了本发明实施例中人脸区域内的五官关键点
图7为本发明实施例中获得的脸部核心区域灰度图像
图8为本发明实施例中获得的局部灰度图像(左眼区域)
图9为本发明实施例中获得的局部灰度图像(右眼区域)
图10为本发明实施例中获得的局部灰度图像(鼻尖区域)
图11为本发明实施例中获得的局部灰度图像(嘴唇区域)
图12为本发明实施例中黑名单人脸图像
以下将结合附图和具体实施例对本发明作进一步详细说明。
具体实施方式
如图1所示,本发明一种人脸黑名单监测方法,包括以下步骤:
S1:基于多角度人脸检测分类器,检测人脸区域;
S1.1:利用常规视频图像采集设备,分别采集正面人脸、正面人脸向左水平偏转5度,10度,正面人脸向右水平偏转5度,10度,正面人脸向上偏转5度,10度,正面人脸向下偏转5度,10度的图像,每个角度的人脸图像不少于1000幅;
S1.2:针对每种角度图像,人工裁剪人脸区域,并缩放至128×128像素,作为正样本;
S1.3:采集同样数量的不含人脸图像,作为负样本;
S1.4:针对每种角度,训练其基于Haar特征和Adaboost分类器的人脸检测分类器。
S2:针对人脸区域,检测部分五官特征点;
针对前一步骤检测到的人脸区域,基于Flandmark方法检测人脸部分五官关键点,其序号如图2所示。
S3:基于部分五官特征点坐标,实现人脸归一化;
在S2中,提取到人脸部分五官关键点,在此基础上,将涵盖眉毛、眼睛、鼻子、嘴唇的区域定义为人脸核心区域,如图3中的方框区域所示:
计算该核心人脸区域坐标,并将该区域缩放为128×128像素的灰度图像。具体步骤为:
Step1:计算人脸核心区域宽度Face_width、高度Face_height分别为:
Face_width=(P6.x-P5.x)×1.6
Face_height=Face_width
Step2:计算人脸核心区域左上角起始点坐标为:
Face.x=P5.x-(P6.x-P5.x)×0.3
Face.y=P5.y-(P6.x-P5.x)×0.3
其中:Pi.x,Pi.y分别表示第i个五官关键点的横、纵坐标,i为图2中定义的各五官关键点的序号。
本发明针对部分五官关键点进行尺度归一化,其创新点在于:
相对于传统方法基于人脸检测后的笼统区域进行尺寸归一化,人脸部分五官关键点可以更精确地标定人脸位置,从而有利于提高后续处理精度。
S4:针对归一化后的完整人脸提取Gabor特征;
令前一步骤提取到归一化人脸灰度图像为I,使用Gabor变换在0~3四个尺度,1~6六个邻域方向对I做卷积运算,然后提取其全脸Gabor特征。
S5:针对归一化后的部分五官区域提取LDP特征;
S5.1:针对原始图像,基于五官关键点获取左眼区域,令其宽度为Leye.width,高度为Leye.height,中心横坐标为Leye.x,中心纵坐标为Leye.y,计算方法为:
Leye.width=P1.x-P5.x
Leye.height=Leye.width
Leye.x=P5.x
Leye.y=P5.y-Leye.height/2
然后将左眼区域图像缩放至50×50像素的灰度图像;
S5.2:针对原始图像,基于五官关键点获取右眼区域,令其宽度为Reye.width,高度为Reye.height,中心横坐标为Reye.x,中心纵坐标为Reye.y,计算方法为:
Reye.width=P6.x-P2.x
Reye.height=Reye.width
Reye.x=P2.x
Reye.y=P2.y-Reye.height/2
然后将右眼区域图像缩放至50×50像素的灰度图像;
S5.3:针对原始图像,基于五官关键点获取鼻尖区域,令其宽度为Nose.width,高度为Nose.height,中心横坐标为Nose.x,中心纵坐标为Nose.y,计算方法为:
Nose.width=P6.x-P2.x
Nose.height=Nose.width
Nose.x=P0.x-Nose.width/2
Nose.y=P0.y-Nose.height/2
然后将鼻尖区域图像缩放至50×50像素的灰度图像;
S5.4:针对原始图像,基于五官关键点获取嘴巴区域,令其宽度为Mouth.width,高度为Mouth.height,中心横坐标为Mouth.x,中心纵坐标为Mouth.y,计算方法为:
Mouth.width=P4.x-P3.x
Mouth.height=Mouth.width
Mouth.x=P3.x
Mouth.y=P3.y-Mouth.height/2
然后将嘴巴区域图像缩放至50×50像素的灰度图像;
S5.5:分别针对上述4个区域,提取其局部定向模式(Local Derivative Pattern,LDP)特征。
S6:计算人脸相似度,实现黑名单监测。
S6.1:针对视频监控系统中获得每一帧图像,分别进行步骤S1至S5,提取其全脸Gabor特征F1eature0和四个局部LDP特征F1eature1、F1eature2、F1eature3、F1eature4;
S6.2:针对黑名单中的人脸,分别进行步骤S1至S5,提取其核心人脸区域的全脸Gabor特征F2eature0,和四个局部区域LDP特征F2eature1、F2eature2、F2eature3、F2eature4;
S6.3:针对上述5种特征,分别计算监控视频图像人脸与黑名单人脸的欧式距离,令其为Di,i=0,1,2,…,4,分别表示全局Gabor特征、局部LDP特征的欧氏距离。此进行说明:两张脸(监控视频图像人脸与黑名单人脸)各有一个全局Gabor特征向量,计算这两个之间的欧氏距离;两张脸的右眼部分各有一个LDP特征向量,计算这两个之间的欧氏距离,同样的两张脸的左眼、鼻子、嘴巴也是如此。
S6.4:计算上述5种特征基于欧氏距离的相似度
S6.5:计算5种相似度的平均值
S6.6:设定相似度阈值Fth,如果则判断视频人脸与黑名单人脸高度相似,返回监测结果。
实施例1:
S1.如图4所示,针对监控视频中的一帧监控视频图像。
S2.对S1中的原始监控视频图像进行人脸检测,获得人脸区域如图5所示。
S3.在步骤S2中得到的人脸区域内,利用Flandmark方法检测五官关键点,得到的五官关键点如图6所示。
S4.基于五官关键点,裁剪并缩放得到尺寸归一化的脸部核心区域灰度图像如图7所示。
S5.基于五官关键点,裁剪并缩放得到尺寸归一化的脸部局部灰度图像,分别如图8、9、10、11所示。
S6、针对图7所示的脸部核心区域图像,计算其Gabor特征为F1eature0,针对图8~图11的脸部局部图像,分别计算其LDP特征为F1eature1、F1eature2、F1eature3、F1eature4,记为F1={F1eature0,F1eature1,F1eature2,F1eature3,F1eature4}。
S7、假设黑名单中某一张人脸图像如图12所示.按照S1~S6的步骤进行处理,获取该人脸的特征为F2={F2eature0,F2eature1,F2eature2,F2eature3,F2eature4}。
S7、分别计算F1与F2对应元素的欧氏距离,记为Di,i=0,1,2,3,4。
S8、计算5种特征基于欧氏距离的相似度
计算相似度的平均值
最终计算出的平均相似度
S9、因为因此判断监控视频图像中的人脸在黑名单中。
Claims (8)
1.一种人脸黑名单监测方法,其特征在于:包括以下步骤:
S1:基于多角度人脸检测分类器,检测人脸区域;
S2:针对人脸区域,检测部分五官特征点;
S3:基于部分五官特征点坐标,实现人脸归一化;
S4:针对归一化后的完整人脸提取Gabor特征;
S5:针对归一化后的部分五官区域提取LDP特征;
S6:计算人脸相似度,实现黑名单监测。
2.根据权利要求1所述的人脸黑名单监测方法,其特征在于,步骤S1中是利用多角度人脸训练基于Haar特征和Adaboost分类器的人脸检测分类器,包括以下步骤:
S1.1:利用视频图像采集设备分别采集正面人脸、正面人脸向左水平偏转5度,10度,正面人脸向右水平偏转5度,10度,正面人脸向上偏转5度,10度,正面人脸向下偏转5度,10度的图像,每个角度的人脸图像不少于1000幅;
S1.2:针对每种角度图像,人工裁剪人脸区域,并缩放至128×128像素,作为正样本;
S1.3:采集同样数量的不含人脸图像,作为负样本;
S1.4:针对每种角度图像,训练其基于Haar特征和Adaboost分类器的人脸检测分类器。
3.根据权利要求2所述的人脸黑名单监测方法,其特征在于,步骤S2中,针对步骤S1中检测到的人脸区域,基于Flandmark方法检测人脸部分五官关键点,人脸部分五官关键点包括7个,第一个五官关键点为鼻尖、第二个五官关键点为左眼右眼角、第三个五官关键点为右眼左眼角、第四个五官关键点为左嘴角、第五个五官关键点为右嘴角、第六个五官关键点为左眼左眼角和第七个五官关键点为右眼右眼角。
4.根据权利要求3所述的人脸黑名单监测方法,其特征在于,步骤S3中,在步骤S2提取人脸部分五官关键点的基础上,将人脸部分中包含人脸部分五官关键点、眉毛、鼻子、嘴巴的正方形区域定义为人脸核心区域,然后计算核心人脸区域坐标,并将核心人脸区域缩放为128×128像素的灰度图像,具体步骤为:
S3.1:计算人脸核心区域宽度Face_width、高度Face_height分别为:
Face_width=(P6.x-P5.x)×1.6
Face_height=Face_width
S3.2:计算人脸核心区域左上角起始点坐标为:
Face.x=P5.x-(P6.x-P5.x)×0.3
Face.y=P5.y-(P6.x-P5.x)×0.3
其中:Pi.x,Pi.y分别表示序号为i的五官关键点的横、纵坐标。
5.根据权利要求4所述的人脸黑名单监测方法,其特征在于,步骤S4中,令步骤S3提取到归一化人脸灰度图像为I,使用Gabor变换在0~3四个尺度,1~6六个邻域方向对I做卷积运算,然后提取其全脸Gabor特征。
6.根据权利要求5所述的人脸黑名单监测方法,其特征在于,步骤S5的方法是:
S5.1针对原始视频监控图像,基于五官关键点获取左眼区域,令其宽度为Leye.width,高度为Leye.height,中心横坐标为Leye.x,中心纵坐标为Leye.y,计算方法为:
Leye.width=P1.x-P5.x
Leye.height=Leye.width
Leye.x=P5.x
Leye.y=P5.y-Leye.height/2
然后将左眼区域图像缩放至50×50像素的灰度图像;
S5.2:针对原始视频监控图像,基于五官关键点获取右眼区域,令其宽度为Reye.width,高度为Reye.height,中心横坐标为Reye.x,中心纵坐标为Reye.y,计算方法为:
Reye.width=P6.x-P2.x
Reye.height=Reye.width
Reye.x=P2.x
Reye.y=P2.y-Reye.height/2
然后将右眼区域图像缩放至50×50像素的灰度图像;
S5.3:针对原始视频监控图像,基于五官关键点获取鼻尖区域,令其宽度为Nose.width,高度为Nose.height,中心横坐标为Nose.x,中心纵坐标为Nose.y,计算方法为:
Nose.width=P6.x-P2.x
Nose.height=Nose.width
Nose.x=P0.x-Nose.width/2
Nose.y=P0.y-Nose.height/2
然后将鼻尖区域图像缩放至50×50像素的灰度图像;
S5.4:针对原始视频监控图像,基于五官关键点获取嘴巴区域,令其宽度为Mouth.width,高度为Mouth.height,中心横坐标为Mouth.x,中心纵坐标为Mouth.y,计算方法为:
Mouth.width=P4.x-P3.x
Mouth.height=Mouth.width
Mouth.x=P3.x
Mouth.y=P3.y-Mouth.height/2
然后将嘴巴区域图像缩放至50×50像素的灰度图像;
S5.5:分别针对步骤S5.1至S5.4中所述的4个区域,提取其局部LDP特征,得到四个局部LDP特征。
7.根据权利要求6所述的人脸黑名单监测方法,其特征在于,步骤S6的方法是:
S6.1:针对视频监控系统中获得每一帧图像,分别采取步骤S1至S5的方法,提取其全脸Gabor特征F1eature0和四个局部LDP特征F1eature1、F1eature2、F1eature3、F1eature4;
S6.2:针对黑名单中的人脸,分别采取步骤S1至S5的方法,提取其核心人脸区域的全脸Gabor特征F2eature0,和四个局部区域LDP特征F2eature1、F2eature2、F2eature3、F2eature4;
S6.3:针对步骤S6.1和S6.2中获得的5种特征,分别计算监控视频图像人脸与黑名单人脸的欧式距离,令其为Di,i=0,1,2,…,4,分别表示全局Gabor特征、局部LDP特征的欧氏距离;
S6.4:计算上述5种特征基于欧氏距离的相似度
S6.5:计算5种相似度的平均值
S6.6:设定相似度阈值Fth,如果则判断视频人脸与黑名单人脸高度相似,返回监测结果。
8.根据权利要求7所述的人脸黑名单监测方法,其特征在于,步骤S6.6中的Fth=0.88。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610280859.1A CN105956552B (zh) | 2016-04-29 | 2016-04-29 | 一种人脸黑名单监测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610280859.1A CN105956552B (zh) | 2016-04-29 | 2016-04-29 | 一种人脸黑名单监测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105956552A true CN105956552A (zh) | 2016-09-21 |
CN105956552B CN105956552B (zh) | 2019-08-02 |
Family
ID=56916456
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610280859.1A Expired - Fee Related CN105956552B (zh) | 2016-04-29 | 2016-04-29 | 一种人脸黑名单监测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105956552B (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106778529A (zh) * | 2016-11-25 | 2017-05-31 | 南京理工大学 | 一种基于改进ldp的人脸识别方法 |
CN107545243A (zh) * | 2017-08-07 | 2018-01-05 | 南京信息工程大学 | 基于深度卷积模型的黄种人脸识别方法 |
CN108446660A (zh) * | 2018-03-29 | 2018-08-24 | 百度在线网络技术(北京)有限公司 | 用于识别人脸图像的方法和装置 |
CN108875515A (zh) * | 2017-12-11 | 2018-11-23 | 北京旷视科技有限公司 | 人脸识别方法、装置、系统、存储介质和抓拍机 |
CN109117700A (zh) * | 2017-06-26 | 2019-01-01 | 三星电子株式会社 | 脸部验证方法和设备 |
CN109886223A (zh) * | 2019-02-26 | 2019-06-14 | 北京旷视科技有限公司 | 人脸识别方法、底库录入方法、装置及电子设备 |
CN110022454A (zh) * | 2018-01-10 | 2019-07-16 | 华为技术有限公司 | 一种在视频会议中识别身份的方法及相关设备 |
CN110188673A (zh) * | 2019-05-29 | 2019-08-30 | 京东方科技集团股份有限公司 | 表情识别方法和装置 |
CN113657195A (zh) * | 2021-07-27 | 2021-11-16 | 浙江大华技术股份有限公司 | 人脸图像识别方法、设备、电子装置和存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103268485A (zh) * | 2013-06-09 | 2013-08-28 | 上海交通大学 | 基于稀疏正则化的实现多波段人脸图像信息融合的人脸识别方法 |
CN103353936A (zh) * | 2013-07-26 | 2013-10-16 | 上海交通大学 | 人脸识别方法及系统 |
CN104881676A (zh) * | 2015-05-05 | 2015-09-02 | 昆明理工大学 | 一种人脸图像凸凹模式纹理特征提取及识别方法 |
CN104978550A (zh) * | 2014-04-08 | 2015-10-14 | 上海骏聿数码科技有限公司 | 基于大规模人脸数据库的人脸识别方法及系统 |
-
2016
- 2016-04-29 CN CN201610280859.1A patent/CN105956552B/zh not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103268485A (zh) * | 2013-06-09 | 2013-08-28 | 上海交通大学 | 基于稀疏正则化的实现多波段人脸图像信息融合的人脸识别方法 |
CN103353936A (zh) * | 2013-07-26 | 2013-10-16 | 上海交通大学 | 人脸识别方法及系统 |
CN104978550A (zh) * | 2014-04-08 | 2015-10-14 | 上海骏聿数码科技有限公司 | 基于大规模人脸数据库的人脸识别方法及系统 |
CN104881676A (zh) * | 2015-05-05 | 2015-09-02 | 昆明理工大学 | 一种人脸图像凸凹模式纹理特征提取及识别方法 |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106778529A (zh) * | 2016-11-25 | 2017-05-31 | 南京理工大学 | 一种基于改进ldp的人脸识别方法 |
CN109117700A (zh) * | 2017-06-26 | 2019-01-01 | 三星电子株式会社 | 脸部验证方法和设备 |
CN107545243A (zh) * | 2017-08-07 | 2018-01-05 | 南京信息工程大学 | 基于深度卷积模型的黄种人脸识别方法 |
CN108875515A (zh) * | 2017-12-11 | 2018-11-23 | 北京旷视科技有限公司 | 人脸识别方法、装置、系统、存储介质和抓拍机 |
CN110022454A (zh) * | 2018-01-10 | 2019-07-16 | 华为技术有限公司 | 一种在视频会议中识别身份的方法及相关设备 |
CN110022454B (zh) * | 2018-01-10 | 2021-02-23 | 华为技术有限公司 | 一种在视频会议中识别身份的方法及相关设备 |
US11914691B2 (en) | 2018-01-10 | 2024-02-27 | Huawei Technologies Co., Ltd. | Method for recognizing identity in video conference and related device |
CN108446660A (zh) * | 2018-03-29 | 2018-08-24 | 百度在线网络技术(北京)有限公司 | 用于识别人脸图像的方法和装置 |
CN109886223A (zh) * | 2019-02-26 | 2019-06-14 | 北京旷视科技有限公司 | 人脸识别方法、底库录入方法、装置及电子设备 |
CN110188673A (zh) * | 2019-05-29 | 2019-08-30 | 京东方科技集团股份有限公司 | 表情识别方法和装置 |
CN110188673B (zh) * | 2019-05-29 | 2021-07-30 | 京东方科技集团股份有限公司 | 表情识别方法和装置 |
CN113657195A (zh) * | 2021-07-27 | 2021-11-16 | 浙江大华技术股份有限公司 | 人脸图像识别方法、设备、电子装置和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN105956552B (zh) | 2019-08-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105956552A (zh) | 一种人脸黑名单监测方法 | |
CN109522853B (zh) | 面向监控视频的人脸检测与搜索方法 | |
CN104008370B (zh) | 一种视频人脸识别方法 | |
WO2018119668A1 (zh) | 一种行人头部识别方法及系统 | |
WO2022121039A1 (zh) | 银行卡倾斜矫正检测方法、装置、可读存储介质和终端 | |
CN104268583B (zh) | 基于颜色区域特征的行人重识别方法及系统 | |
CN102214291B (zh) | 一种快速准确的基于视频序列的人脸检测跟踪方法 | |
CN103824070B (zh) | 一种基于计算机视觉的快速行人检测方法 | |
CN102682287B (zh) | 基于显著度信息的行人检测方法 | |
CN106127137A (zh) | 一种基于3d轨迹分析的目标检测识别算法 | |
CN104091171B (zh) | 基于局部特征的车载远红外行人检测系统及方法 | |
CN105404857A (zh) | 一种基于红外的夜间智能车前方行人检测方法 | |
CN102136062B (zh) | 一种基于多分辨lbp的人脸检索方法 | |
CN104978550A (zh) | 基于大规模人脸数据库的人脸识别方法及系统 | |
Rouhi et al. | A review on feature extraction techniques in face recognition | |
CN104091157A (zh) | 一种基于特征融合的行人检测方法 | |
CN104933414A (zh) | 一种基于wld-top的活体人脸检测方法 | |
CN103413119A (zh) | 基于人脸稀疏描述子的单样本人脸识别方法 | |
CN102842037A (zh) | 一种基于多特征融合的车辆阴影消除方法 | |
Kim et al. | Autonomous vehicle detection system using visible and infrared camera | |
CN103699874A (zh) | 基于surf流和lle稀疏表示的人群异常行为识别方法 | |
CN106529441B (zh) | 基于模糊边界分片的深度动作图人体行为识别方法 | |
Suard et al. | Pedestrian detection using stereo-vision and graph kernels | |
CN106326851A (zh) | 一种人头检测的方法 | |
CN111461002B (zh) | 一种面向热成像行人检测的样本处理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20190802 |
|
CF01 | Termination of patent right due to non-payment of annual fee |