CN110991258B - 一种人脸融合特征提取方法及系统 - Google Patents

一种人脸融合特征提取方法及系统 Download PDF

Info

Publication number
CN110991258B
CN110991258B CN201911095232.9A CN201911095232A CN110991258B CN 110991258 B CN110991258 B CN 110991258B CN 201911095232 A CN201911095232 A CN 201911095232A CN 110991258 B CN110991258 B CN 110991258B
Authority
CN
China
Prior art keywords
face
rectangular frame
rectangular
local
eye
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911095232.9A
Other languages
English (en)
Other versions
CN110991258A (zh
Inventor
谢巍
吴伟林
李鸿斌
余锦伟
汤茂俊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yangzhou Shengshiyun Information Technology Co ltd
South China University of Technology SCUT
Original Assignee
Yangzhou Shengshiyun Information Technology Co ltd
South China University of Technology SCUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yangzhou Shengshiyun Information Technology Co ltd, South China University of Technology SCUT filed Critical Yangzhou Shengshiyun Information Technology Co ltd
Priority to CN201911095232.9A priority Critical patent/CN110991258B/zh
Publication of CN110991258A publication Critical patent/CN110991258A/zh
Application granted granted Critical
Publication of CN110991258B publication Critical patent/CN110991258B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种人脸融合特征提取方法及系统,该方法包括下述步骤:采集人脸图像样本数据,进行图像预处理,构建人脸图像数据库;提取人脸图像数据库中的人脸图像中主动形状模型全局特征和局部二元模式局部特征的人脸融合特征;确定主动形状模型的关键点位置,提取主动形状模型的全局特征;通过关键点位置划分子区域,提取局部二元模式的局部特征;根据主动形状模型的全局特征与局部二元模式的局部特征,进行标准化后进行串联融合,生成最终的人脸融合特征数据。本发明采用主动形状模型全局特征描述人脸图像整体差异,采用局部二元模式局部特征描述细节差异,通过融合两组特征提高最终融合特征的区分度和稳定性,提高人脸识别的准确率。

Description

一种人脸融合特征提取方法及系统
技术领域
本发明涉及人脸识别技术领域,具体涉及一种人脸融合特征提取方法及系统。
背景技术
在人脸识别过程中,最关键的步骤,也是最困难的步骤是提取合适维度且区分度高的人脸特征,人脸特征提取就是将人脸数据从原始输入空间映射到新的特征空间的过程,采取合适的方式对人脸进行描述,提取人脸特征的大小、位置和轮廓等信息。早期的人脸识别主要利用的是基于几何特征的方法和模板匹配法,90年代以后提出了很多新的方法,比如主成分分析法、独立分量分析法、Fisher线性判别法、弹性图匹配法、Gabor小波表示法以及小波降维法等。
人脸识别过程中使用一些经典的特征提取方法提取的特征往往存在维度高,噪声大,区分度不高等问题,导致最终的人脸识别准确率不能满足实际要求,因此,如何获得较合适的人脸特征成为人脸识别中的关键环节。
发明内容
为了克服现有技术存在的缺陷与不足,为了解决现有人脸识别特征提取方法存在的复杂度高、计算需求较高、速度较慢的问题,本发明提供一种人脸融合特征提取方法及系统,采用主动形状模型的全局特征来描述人脸图像的整体差异,采用局部二元模式的局部特征来描述眼睛、眉毛、鼻子、嘴巴区域的细节差异,通过融合两组特征来提高最终融合特征的区分度和稳定性,提高人脸识别的准确率。
为了达到上述目的,本发明采用以下技术方案:
本发明提供一种人脸融合特征提取方法,包括下述步骤:
采集人脸图像样本数据,进行图像预处理,构建人脸图像数据库;
提取所述人脸图像数据库中的人脸图像的人脸融合特征,所述人脸融合特征包括主动形状模型的全局特征和局部二元模式的局部特征;
确定主动形状模型的关键点位置,提取主动形状模型的全局特征;
通过所述关键点位置划分子区域,提取局部二元模式的局部特征;
根据所述主动形状模型的全局特征与局部二元模式的局部特征,进行标准化后进行串联融合,生成最终的人脸融合特征数据。
作为优选的技术方案,所述进行图像预处理的步骤包括图像灰度化、人脸姿态校正、脸部裁剪以及尺寸统一,具体步骤为:
图像灰度化:将RGB格式图片转换成灰度图像;
人脸姿态校正:构建主动形状模型获取人脸关键点位置,对人脸图像进行标注后得到左、右眼的中心关键点的坐标,通过左眼与右眼中心关键点的坐标计算得到人脸图像的偏差角度,将人脸图像进行顺时针旋转偏差角度,并对所有人脸关键点位置进行顺时针旋转偏差角度;
脸部裁剪:设置人脸矩形框对所述人脸姿态校正后的人脸图像进行脸部裁剪;
尺寸统一:采用双线性插值方法将人脸图像统一尺寸。
作为优选的技术方案,所述提取主动形状模型的全局特征的具体步骤为:
对已经进行过图像预处理的人脸图像获得主动形状模型的关键点位置,以人脸鼻梁上部关键点为参考点,计算人脸图像剩余关键点到参考点的相对距离和角度,采用矢量拼接的方法将所述人脸图像剩余关键点到参考点的相对距离和角度整合得到多维的全局特征向量。
作为优选的技术方案,所述计算人脸图像剩余关键点到参考点的相对距离和角度的具体计算方式为:
Figure BDA0002268126210000031
Figure BDA0002268126210000032
所述全局特征向量的具体计算方式为:
以矢量拼接的方式将其整合得到104维的全局特征向量FVASM
FVASM={d1,θ1,d2,θ2,...,d53,θ53}
其中,di表示剩余关键点到参考点的相对距离,θi表示剩余关键点到参考点的角度,i=1,2,3...,53,并且i≠38。
作为优选的技术方案,所述提取局部二元模式的局部特征的具体步骤为:
通过所述关键点位置划分子区域,所述关键点位置包括左眼、右眼、左眉、右眉、嘴巴、鼻六个位置,将人脸图像划分为六个子区域;
以设定模板中心点的灰度值作为阈值,对相邻的点进行二值处理,得到六个子区域的局部二元模式特征值;
对局部二元模式特征值进行旋转不变形转化,得到旋转不变形转化后的局部二元模式特征值;
分别统计六个子区域经旋转不变形转化后局部二元模式特征值的十进制结果,并按左眼、右眼、左眉、右眉、嘴巴和鼻子的顺序进行矢量拼接,组成多维度的子区域局部二元模式的局部特征。
作为优选的技术方案,所述通过所述关键点位置划分子区域,具体划分方式为:
左、右眼区域表示为:
Figure BDA0002268126210000033
/>
Figure BDA0002268126210000041
其中,xleft eye、yleft eye分别表示左眼矩形框的左上角坐标信息,wleft eye表示左眼矩形框的矩形宽度,hleft eye表示左眼矩形框的矩形高度;
xright eye、yright eye分别表示右眼矩形框的左上角坐标信息,wright eye表示右眼矩形框的矩形宽度,hright eye表示右眼矩形框的矩形高度;
左、右眉区域表示为:
Figure BDA0002268126210000042
Figure BDA0002268126210000043
其中,xleft brow、yleft brow分别表示左眉矩形框的左上角坐标信息,wleft brow表示左眉矩形框的矩形宽度,hleft brow表示左眉矩形框的矩形高度;
xright brow、yright brow分别表示右眉矩形框的左上角坐标信息,wright brow表示右眉矩形框的矩形宽度,hright brow表示右眉矩形框的矩形高度;
鼻子区域表示为:
Figure BDA0002268126210000044
其中,xnose、ynose分别表示鼻子区域矩形框的左上角坐标信息,wnose表示鼻子矩形框的矩形宽度,hnose表示鼻子矩形框的矩形高度;
嘴巴区域表示为:
Figure BDA0002268126210000051
其中,xmouth、ymouth分别表示嘴巴区域矩形框的左上角坐标信息,wmouth表示嘴巴矩形框的矩形宽度,hmouth表示嘴巴矩形框的矩形高度。
作为优选的技术方案,所述进行标准化后进行串联融合,所述标准化的具体计算步骤为:
Figure BDA0002268126210000052
Figure BDA0002268126210000053
其中,FVASM表示主动形状模型的全局特征,μASM和σASM分别表示主动形状模型的全局特征在人脸图像数据库的均值和方差,FVLBP表示局部二元模式的局部特征,μLBP和σLBP分别表示局部二元模式的局部特征在人脸图像数据库的均值和方差;
所述串联融合的具体计算步骤为:
Figure BDA0002268126210000054
其中,FVfin表示人脸融合特征。
本发明还提供一种人脸融合特征提取系统,包括:图像预处理模块、主动形状模型全局特征提取模块、局部二元模式局部特征提取模块和特征融合模块;
所述图像预处理模块用于对人脸图像进行预处理,构建人脸图像数据库;
所述主动形状模型全局特征提取模块用于确定主动形状模型的关键点位置,提取主动形状模型的全局特征;
所述局部二元模式局部特征提取模块用于通过所述关键点位置划分子区域,提取局部二元模式的局部特征;
所述特征融合模块用于根据所述的主动形状模型的全局特征与局部二元模式的局部特征,进行标准化后进行串联融合,生成最终的人脸融合特征数据。
作为优选的技术方案,所述图像预处理模块包括图像灰度化单元、人脸姿态校正单元、脸部裁剪单元以及尺寸统一单元;
所述图像灰度化单元用于将RGB格式图片转换成灰度图像;
所述人脸姿态校正单元用于构建主动形状模型获取人脸关键点位置,通过关键点坐标计算得到人脸图像的偏差角度,将人脸图像进行旋转校正;
所述脸部裁剪单元用于设置人脸矩形框对所述人脸姿态校正后的人脸图像进行脸部裁剪;
所述尺寸统一单元采用双线性插值方法将人脸图像统一尺寸。
本发明与现有技术相比,具有如下优点和有益效果:
(1)本发明采用了在提取融合特征前,对人脸图像进行人脸姿态校正以及脸部裁剪等图像预处理操作方案,减少对人脸采集数据的要求,解决了姿态差异情况影响后续融合特征提取一致性的问题,更能让融合特征反映不同人脸图像的差异。
(2)本发明采用主动形状模型全局特征描述人脸图像整体差异、局部二元模式局部特征描述眼睛、眉毛、鼻子、嘴巴区域细节差异,通过融合两组特征,解决了当前现有技术人脸特征区分度低、稳定性差的问题,提高了人脸识别的准确率。
附图说明
图1为本实施例的人脸融合特征提取方法的流程示意图;
图2为本实施例人脸图像的基于主动形状模型的关键点位置分布图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
实施例
如图1所示,本实施例提供一种人脸融合特征提取方法,包括如下步骤:
获取经过图像预处理的人脸图像数据库,假设人脸样本图组为S,样本图像中一共有a名不同人物对象,每人有b张样本图像,则人脸样本图组一共有m=a×b张,每张样本图像的大小可以不相同,经过图像预处理获得人脸图像数据库;
本实施例的图像预处理步骤包括图像灰度化、人脸姿态校正、脸部裁剪以及尺寸统一等图像预处理,具体如下:
图像灰度化:由于本实施例后续的图像处理以及特征提取是基于灰度图像进行的,所有需要把人脸样本图组中所有RGB格式图片转换成灰度图像;
人脸姿态校正及脸部裁剪:由于采集人脸图像时会出现一定程度的人脸姿态角度偏差,为了保持特征提取一致性,具体通过主动形态模型获取人脸关键点位置;
如图2所示,在本实施例构建主动形状模型的关键点位置分布,其中序号1-15是人脸脸部轮廓关键点,序号16-21和序号22-27分别为右左眉部轮廓关键点,序号28-32和序号33-37为右左眼部轮廓关键点,序号38-45为鼻子轮廓关键点,序号46-53为嘴部轮廓关键点,采用主动形状模型对人脸图像进行标注后,左右眼的中心关键点的坐标分别为(x37,y37)和(x32,y32),这样可以获得人脸图像的偏差角度α:
Figure BDA0002268126210000081
然后通过将人脸图像进行顺时针旋转偏差角度α,并也对所有关键点坐标进行顺时针偏差角度α旋转,最后对旋转后的图像进行脸部裁剪,具体获得人脸区域的外接矩形框的左上角坐标(xr,yr)和外接矩形框的宽度wr和高度hr
xr=min(x1,x2,x3)-λx
yr=min(y17,y18,y23,y24)-λy
wr=max(x13,x14,x15)-xrx
hr=max(y7,y8,y9)-yry
其中,λx和λy分别为根据每张人脸图像的自适应水平和垂直方向的扩展值,具体为:
Figure BDA0002268126210000082
/>
Figure BDA0002268126210000083
尺寸统一:为了保证裁剪后人脸图像特征提取的一致性,需要对图像进行尺寸统一,具体是采用双线性插值方法,将图像尺寸调整至156×156;
提取人脸图像数据库中人脸图像的人脸融合特征,融合人脸特征基于主动形状模型和局部二元模式,并搭建人脸融合特征数据匹配库,具体步骤为:
提取主动形状模型的全局特征:通过对已经进行过图像预处理的人脸图像获得主动形状模型的关键点位置(即像素点坐标),本实施例以人脸鼻梁上部关键点(x38,y38)为参考点,计算获得剩余关键点到参考点的相对距离di和角度θi
Figure BDA0002268126210000084
Figure BDA0002268126210000085
其中i=1,2,3...,53,(i≠38),通过计算参考点与52个关键点的相对距离和角度,以矢量拼接的方式将其整合得到104维的全局特征向量FVASM
FVASM={d1,θ1,d2,θ2,...,d53,θ53,}
本实施例提取左右眼、左右眉、嘴巴、鼻六块区域的局部二元模式的局部特征的具体步骤为:通过主动形状模型获得关键点坐标,通过坐标获得六块区域的外接矩形框进行区域裁剪,从人脸图像中划分六块以矩阵框为界的子区域分别为左右眼、左右眉、鼻子和嘴巴区域,其公式描述具体为:
左、右眼区域表示为:
Figure BDA0002268126210000091
Figure BDA0002268126210000092
其中,xleft eye、yleft eye分别表示左眼矩形框的左上角坐标信息,wleft eye表示左眼矩形框的矩形宽度,hleft eye表示左眼矩形框的矩形宽度;
xright eye、yright eye分别表示右眼矩形框的左上角坐标信息,wright eye表示右眼矩形框的矩形宽度,hright eye表示右眼矩形框的矩形宽度;
左、右眉区域表示为:
Figure BDA0002268126210000093
Figure BDA0002268126210000094
其中,xleft brow、yleft brow分别表示左眉矩形框的左上角坐标信息,wleft brow表示左眉矩形框的矩形宽度,hleft brow表示左眉矩形框的矩形宽度;
xright brow、yright brow分别表示右眉矩形框的左上角坐标信息,wright brow表示右眉矩形框的矩形宽度,hright brow表示右眉矩形框的矩形宽度;
鼻子区域表示为:
Figure BDA0002268126210000101
其中,xnose、ynose分别表示鼻子区域矩形框的左上角坐标信息,wnose表示鼻子矩形框的矩形宽度,hnose表示鼻子矩形框的矩形宽度;
嘴巴区域表示为:
Figure BDA0002268126210000102
其中,xmouth、ymouth分别表示嘴巴区域矩形框的左上角坐标信息,wmouth表示嘴巴矩形框的矩形宽度,hmouth表示嘴巴矩形框的矩形宽度;
然后对六块子区域提取局部二元模式(Local Binary Patten,LBP)特征,具体步骤是:首先以3×3的模板,以中心点gc的灰度值作为阈值,对相邻的八个点进行二值处理,则局部二元模式特征值LBP可表示为:
Figure BDA0002268126210000103
其中,P表示该区域相邻像素的数量,R表示区域半径,在本实施例中P=8,R=1,而二值化公式为:
Figure BDA0002268126210000104
/>
为了提高LBP特征的鲁棒性,并且简化LBP特征种类,对LBP特征进行旋转不变形转化,即:
Figure BDA0002268126210000105
其中的
Figure BDA0002268126210000111
表示旋转状态下的LBP特征,ROR(x,i)则是旋转函数表达,表明将x进行循环右移i(i<P)位,直到其数值最小,在本实施例并没有对如何对区域内的像素点进行编号给出具体规定,一般选择从中心点左上方的像素点开始,按照顺时针顺序依次编号。
本实施例的
Figure BDA0002268126210000112
特征将产生36种不同的输出,分别统计六块子区域的/>
Figure BDA0002268126210000113
特征的十进制结果,并按左右眼、左右眉、嘴巴、鼻子顺序进行矢量拼接组成维度为216的子区域局部二元模式的局部特征FVLBP
搭建人脸融合特征数据匹配库:其中对于一张人脸图像可获得两组特征,分别为FVASM和FVLBP,对其分别做标准化得到
Figure BDA0002268126210000114
和/>
Figure BDA0002268126210000115
表示如下:
Figure BDA0002268126210000116
其中,μi和σi表示通过人脸图像数据库计算得到的两组特征均值和方差,在标准化后,将两组特征串联融合,得到融合特征FVfin,表示为:
Figure BDA0002268126210000117
将人脸图像数据库中每张人脸图像进行上述融合特征提取,并用矢量拼接组成最终的人脸融合特征数据匹配库,得到了具有区分性的、用于各种分类算法进行人脸识别的特征库,如随机森林算法实现人脸识别,得到的人脸融合特征具有更高的区分性,能让分类模型更容易拟合。
本实施例还提供一种人脸融合特征提取系统,包括:图像预处理模块、主动形状模型全局特征提取模块、局部二元模式局部特征提取模块和特征融合模块;
在本实施例中,图像预处理模块用于对人脸图像进行预处理,构建人脸图像数据库;主动形状模型全局特征提取模块用于确定主动形状模型的关键点位置,提取主动形状模型的全局特征;局部二元模式局部特征提取模块用于通过所述关键点位置划分子区域,提取局部二元模式的局部特征;特征融合模块用于根据所述的主动形状模型的全局特征与局部二元模式的局部特征,进行标准化后进行串联融合,生成最终的人脸融合特征数据。
在本实施例中,图像预处理模块包括图像灰度化单元、人脸姿态校正单元、脸部裁剪单元以及尺寸统一单元;
图像灰度化单元用于将RGB格式图片转换成灰度图像;人脸姿态校正单元用于构建主动形状模型获取人脸关键点位置,通过关键点坐标计算得到人脸图像的偏差角度,将人脸图像进行旋转校正;脸部裁剪单元用于设置人脸矩形框对所述人脸姿态校正后的人脸图像进行脸部裁剪;尺寸统一单元采用双线性插值方法将人脸图像统一尺寸。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。

Claims (7)

1.一种人脸融合特征提取方法,其特征在于,包括下述步骤:
采集人脸图像样本数据,进行图像预处理,构建人脸图像数据库;
提取所述人脸图像数据库中的人脸图像的人脸融合特征,所述人脸融合特征包括主动形状模型的全局特征和局部二元模式的局部特征;
确定主动形状模型的关键点位置,提取主动形状模型的全局特征;
通过所述关键点位置划分子区域,提取局部二元模式的局部特征;
所述提取局部二元模式的局部特征的具体步骤为:
通过所述关键点位置划分子区域,所述关键点位置包括左眼、右眼、左眉、右眉、嘴巴、鼻六个位置,将人脸图像划分为六个子区域;
以设定模板中心点的灰度值作为阈值,对相邻的点进行二值处理,得到六个子区域的局部二元模式特征值;
对局部二元模式特征值进行旋转不变形转化,得到旋转不变形转化后的局部二元模式特征值;
分别统计六个子区域经旋转不变形转化后局部二元模式特征值的十进制结果,并按左眼、右眼、左眉、右眉、嘴巴和鼻子的顺序进行矢量拼接,组成多维度的子区域局部二元模式的局部特征;
所述通过所述关键点位置划分子区域,具体划分方式为:
左、右眼区域表示为:
Figure FDA0004085037530000011
Figure FDA0004085037530000012
其中,xlefteye、ylefteye分别表示左眼矩形框的左上角坐标信息,wlefteye表示左眼矩形框的矩形宽度,hlefteye表示左眼矩形框的矩形高度;
xrighteye、yrighteye分别表示右眼矩形框的左上角坐标信息,wrighteye表示右眼矩形框的矩形宽度,hrighteye表示右眼矩形框的矩形高度;
左、右眉区域表示为:
Figure FDA0004085037530000021
/>
Figure FDA0004085037530000022
其中,xleftbrow、yleftbrow分别表示左眉矩形框的左上角坐标信息,wleftbrow表示左眉矩形框的矩形宽度,hleftbrow表示左眉矩形框的矩形高度;
xrightbrow、yrightbrow分别表示右眉矩形框的左上角坐标信息,wrightbrow表示右眉矩形框的矩形宽度,hrightbrow表示右眉矩形框的矩形高度;
鼻子区域表示为:
Figure FDA0004085037530000023
其中,xnose、ynose分别表示鼻子区域矩形框的左上角坐标信息,wnose表示鼻子矩形框的矩形宽度,hnose表示鼻子矩形框的矩形高度;
嘴巴区域表示为:
Figure FDA0004085037530000024
其中,xmouth、ymouth分别表示嘴巴区域矩形框的左上角坐标信息,wmouth表示嘴巴矩形框的矩形宽度,hmouth表示嘴巴矩形框的矩形高度;
根据所述主动形状模型的全局特征与局部二元模式的局部特征,进行标准化后进行串联融合,生成最终的人脸融合特征数据。
2.根据权利要求1所述的人脸融合特征提取方法,其特征在于,所述进行图像预处理的步骤包括图像灰度化、人脸姿态校正、脸部裁剪以及尺寸统一,具体步骤为:
图像灰度化:将RGB格式图片转换成灰度图像;
人脸姿态校正:构建主动形状模型获取人脸关键点位置,对人脸图像进行标注后得到左、右眼的中心关键点的坐标,通过左眼与右眼中心关键点的坐标计算得到人脸图像的偏差角度,将人脸图像进行顺时针旋转所述偏差角度,并对所有人脸关键点位置进行顺时针旋转偏差角度;
脸部裁剪:设置人脸矩形框对所述人脸姿态校正后的人脸图像进行脸部裁剪;
尺寸统一:采用双线性插值方法将人脸图像统一尺寸。
3.根据权利要求1所述的人脸融合特征提取方法,其特征在于,所述提取主动形状模型的全局特征的具体步骤为:
对已经进行过图像预处理的人脸图像获得主动形状模型的关键点位置,以人脸鼻梁上部关键点为参考点,计算人脸图像剩余关键点到参考点的相对距离和角度,采用矢量拼接的方法将所述人脸图像剩余关键点到参考点的相对距离和角度整合得到多维的全局特征向量。
4.根据权利要求3所述的人脸融合特征提取方法,其特征在于,所述计算人脸图像剩余关键点到参考点的相对距离和角度的具体计算方式为:
Figure FDA0004085037530000031
Figure FDA0004085037530000041
所述全局特征向量的具体计算方式为:
以矢量拼接的方式将其整合得到104维的全局特征向量FVASM
FVASM={d1,θ1,d2,θ2,...,d53,θ53}
其中,di表示剩余关键点到参考点的相对距离,θi表示剩余关键点到参考点的角度,i=1,2,3...,53,并且i≠38。
5.根据权利要求1所述的人脸融合特征提取方法,其特征在于,所述进行标准化后进行串联融合,所述标准化的具体计算步骤为:
Figure FDA0004085037530000042
Figure FDA0004085037530000043
其中,FVASM表示主动形状模型的全局特征,μASM和σASM分别表示主动形状模型的全局特征在人脸图像数据库的均值和方差,FVLBP表示局部二元模式的局部特征,μLBP和σLBP分别表示局部二元模式的局部特征在人脸图像数据库的均值和方差;
所述串联融合的具体计算步骤为:
Figure FDA0004085037530000044
其中,FVfin表示人脸融合特征。
6.一种人脸融合特征提取系统,其特征在于,包括:图像预处理模块、主动形状模型全局特征提取模块、局部二元模式局部特征提取模块和特征融合模块;
所述图像预处理模块用于对人脸图像进行预处理,构建人脸图像数据库;
所述主动形状模型全局特征提取模块用于确定主动形状模型的关键点位置,提取主动形状模型的全局特征;
所述局部二元模式局部特征提取模块用于通过所述关键点位置划分子区域,提取局部二元模式的局部特征;
所述提取局部二元模式的局部特征的具体步骤为:
通过所述关键点位置划分子区域,所述关键点位置包括左眼、右眼、左眉、右眉、嘴巴、鼻六个位置,将人脸图像划分为六个子区域;
以设定模板中心点的灰度值作为阈值,对相邻的点进行二值处理,得到六个子区域的局部二元模式特征值;
对局部二元模式特征值进行旋转不变形转化,得到旋转不变形转化后的局部二元模式特征值;
分别统计六个子区域经旋转不变形转化后局部二元模式特征值的十进制结果,并按左眼、右眼、左眉、右眉、嘴巴和鼻子的顺序进行矢量拼接,组成多维度的子区域局部二元模式的局部特征;
所述通过所述关键点位置划分子区域,具体划分方式为:
左、右眼区域表示为:
Figure FDA0004085037530000051
Figure FDA0004085037530000052
其中,xlefteye、ylefteye分别表示左眼矩形框的左上角坐标信息,wlefteye表示左眼矩形框的矩形宽度,hlefteye表示左眼矩形框的矩形高度;
xrighteye、yrighteye分别表示右眼矩形框的左上角坐标信息,wrighteye表示右眼矩形框的矩形宽度,hrighteye表示右眼矩形框的矩形高度;
左、右眉区域表示为:
Figure FDA0004085037530000061
Figure FDA0004085037530000062
其中,xleftbrow、yleftbrow分别表示左眉矩形框的左上角坐标信息,wleftbrow表示左眉矩形框的矩形宽度,hleftbrow表示左眉矩形框的矩形高度;
xrightbrow、yrightbrow分别表示右眉矩形框的左上角坐标信息,wrightbrow表示右眉矩形框的矩形宽度,hrightbrow表示右眉矩形框的矩形高度;
鼻子区域表示为:
Figure FDA0004085037530000063
其中,xnose、ynose分别表示鼻子区域矩形框的左上角坐标信息,wnose表示鼻子矩形框的矩形宽度,hnose表示鼻子矩形框的矩形高度;
嘴巴区域表示为:
Figure FDA0004085037530000064
其中,xmouth、ymouth分别表示嘴巴区域矩形框的左上角坐标信息,wmouth表示嘴巴矩形框的矩形宽度,hmouth表示嘴巴矩形框的矩形高度;
所述特征融合模块用于根据所述的主动形状模型的全局特征与局部二元模式的局部特征,进行标准化后进行串联融合,生成最终的人脸融合特征数据。
7.根据权利要求6所述的人脸融合特征提取系统,其特征在于,所述图像预处理模块包括图像灰度化单元、人脸姿态校正单元、脸部裁剪单元以及尺寸统一单元;
所述图像灰度化单元用于将RGB格式图片转换成灰度图像;
所述人脸姿态校正单元用于构建主动形状模型获取人脸关键点位置,通过关键点坐标计算得到人脸图像的偏差角度,将人脸图像进行旋转校正;
所述脸部裁剪单元用于设置人脸矩形框对所述人脸姿态校正后的人脸图像进行脸部裁剪;
所述尺寸统一单元采用双线性插值方法将人脸图像统一尺寸。
CN201911095232.9A 2019-11-11 2019-11-11 一种人脸融合特征提取方法及系统 Active CN110991258B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911095232.9A CN110991258B (zh) 2019-11-11 2019-11-11 一种人脸融合特征提取方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911095232.9A CN110991258B (zh) 2019-11-11 2019-11-11 一种人脸融合特征提取方法及系统

Publications (2)

Publication Number Publication Date
CN110991258A CN110991258A (zh) 2020-04-10
CN110991258B true CN110991258B (zh) 2023-05-23

Family

ID=70083815

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911095232.9A Active CN110991258B (zh) 2019-11-11 2019-11-11 一种人脸融合特征提取方法及系统

Country Status (1)

Country Link
CN (1) CN110991258B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112115845B (zh) * 2020-09-15 2023-12-29 中山大学 一种用于人脸关键点检测的主动形状模型参数化方法
CN112185495A (zh) * 2020-09-22 2021-01-05 深圳市宏泰和信息科技有限公司 医疗设备的病例数据获取方法及系统
CN114821752A (zh) * 2022-06-28 2022-07-29 杭州登虹科技有限公司 一种基于混合特征的年龄估算方法、电子设备及存储介质
CN116312970B (zh) * 2023-03-23 2023-12-15 苏州复变医疗科技有限公司 一种用于心理测评的智能交互方法和装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103136504A (zh) * 2011-11-28 2013-06-05 汉王科技股份有限公司 人脸识别方法及装置
CN108268814A (zh) * 2016-12-30 2018-07-10 广东精点数据科技股份有限公司 一种基于全局和局部特征模糊融合的人脸识别方法及装置
CN108645353A (zh) * 2018-05-14 2018-10-12 四川川大智胜软件股份有限公司 基于多帧随机二元编码光场的三维数据采集系统及方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103136504A (zh) * 2011-11-28 2013-06-05 汉王科技股份有限公司 人脸识别方法及装置
CN108268814A (zh) * 2016-12-30 2018-07-10 广东精点数据科技股份有限公司 一种基于全局和局部特征模糊融合的人脸识别方法及装置
CN108645353A (zh) * 2018-05-14 2018-10-12 四川川大智胜软件股份有限公司 基于多帧随机二元编码光场的三维数据采集系统及方法

Also Published As

Publication number Publication date
CN110991258A (zh) 2020-04-10

Similar Documents

Publication Publication Date Title
CN110991258B (zh) 一种人脸融合特征提取方法及系统
Dai et al. A 3d morphable model of craniofacial shape and texture variation
CN109359538B (zh) 卷积神经网络的训练方法、手势识别方法、装置及设备
CN109389074B (zh) 一种基于人脸特征点提取的表情识别方法
US7912253B2 (en) Object recognition method and apparatus therefor
Li et al. A comprehensive survey on 3D face recognition methods
WO2017219391A1 (zh) 一种基于三维数据的人脸识别系统
CN110334762B (zh) 一种基于四叉树结合orb和sift的特征匹配方法
KR100930994B1 (ko) 3차원 영상 모델 생성 방법 및 장치, 이를 이용한 영상인식 방법 및 장치 그리고 상기 방법들을 수행하는프로그램이 기록된 기록 매체
Islam et al. A review of recent advances in 3D ear-and expression-invariant face biometrics
JP2003323622A (ja) 画像認識システム及びその認識方法並びにプログラム
EP1229488A2 (en) Information processing method and apparatus
JP5574033B2 (ja) 画像認識システム及びその認識方法並びにプログラム
Chen et al. Robust text line segmentation for historical manuscript images using color and texture
CN111126240A (zh) 一种三通道特征融合人脸识别方法
CN113570684A (zh) 图像处理方法、装置、计算机设备和存储介质
JP2017102622A (ja) 画像処理装置、画像処理方法及びプログラム
CN110188646B (zh) 基于梯度方向直方图与局部二值模式融合的人耳识别方法
Vasconcelos et al. Methods to automatically build point distribution models for objects like hand palms and faces represented in images
KR20220087180A (ko) 개체 이미지의 패턴에 의한 개체 인식 식별 방법 및 시스템
CN110276263B (zh) 一种人脸识别系统及识别方法
CN110490210B (zh) 一种基于紧致通道间t采样差分的彩色纹理分类方法
Işikdoğan et al. Automatic recognition of Turkish fingerspelling
CN111553195B (zh) 基于多位图切平面与多尺度uLBP的三维人脸遮挡判别方法
Lakshmi et al. Plant leaf image detection method using a midpoint circle algorithm for shape-based feature extraction

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant