CN112784800A - 一种基于神经网络和形状约束的人脸关键点检测方法 - Google Patents

一种基于神经网络和形状约束的人脸关键点检测方法 Download PDF

Info

Publication number
CN112784800A
CN112784800A CN202110144231.XA CN202110144231A CN112784800A CN 112784800 A CN112784800 A CN 112784800A CN 202110144231 A CN202110144231 A CN 202110144231A CN 112784800 A CN112784800 A CN 112784800A
Authority
CN
China
Prior art keywords
face
key point
shape
neural network
key
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110144231.XA
Other languages
English (en)
Other versions
CN112784800B (zh
Inventor
丁勇
戴悦
刘郑学
陆晨燕
汤峻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN202110144231.XA priority Critical patent/CN112784800B/zh
Publication of CN112784800A publication Critical patent/CN112784800A/zh
Application granted granted Critical
Publication of CN112784800B publication Critical patent/CN112784800B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/28Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于神经网络和形状约束的人脸关键点检测方法,属于人脸识别和分析领域,用来解决人脸关键点检测的问题,主要应用于自动人脸识别、表情分析、三维人脸重建及三维动画等人脸相关问题。本发明主要包括如下步骤:首先,根据训练集标注的人脸关键点构建形状字典;接着,利用神经网络前向预测出关键点的热图;然后,根据热图构建初始形状特征和权重矩阵;最后,重建形状特征。本发明可以实现遮挡情况下的人脸关键点检测,计算速度快,计算复杂度低,检测精度高。

Description

一种基于神经网络和形状约束的人脸关键点检测方法
技术领域
本发明属于人脸识别和分析领域,用于人脸关键点检测,具体为一种基于神经网络和形状约束的人脸关键点检测方法。
背景技术
人脸关键点检测是人脸识别和分析领域中的关键一步,它是诸如自动人脸识别、表情分析、三维人脸重建及三维动画等其它人脸相关问题的前提和突破口。近些年来,深度学习方法由于其自动学习及持续学习能力,已被成功应用到了图像识别与分析、语音识别和自然语言处理等很多领域,且在这些方面都带来了很显著的改善。深度学习方法也在人脸关键点检测的研究上取得了极大的进展。
传统的深度学习方法的模型大小与检测精度之间相关性极大,现有的高精度人脸关键点检测方法往往具有较大的模型尺寸,轻量级模型往往达不到检测精度要求,从而为实际应用带来了困难。
发明内容
本发明的目的是给出一种基于神经网络和形状约束的人脸关键点检测方法,训练人脸关键点检测模型,并且用于现实场景的人脸关键点检测,在轻量级的基础上实现较高的精度,且具有遮挡鲁棒性。
本发明采取的技术方案是:
首先,根据训练集标注的人脸关键点构建形状字典;接着,利用神经网络前向预测出关键点的热图;然后,根据热图构建初始形状特征和权重矩阵;最后,重建形状特征。本发明解决其技术问题所采用的技术方案如下:
一种基于神经网络和形状约束的人脸关键点检测方法,包括如下步骤:
步骤(1).采集人脸图像,并标记人脸关键点坐标,构成训练数据集T={(I1,P1),(I2,P2),...,(In,Pn)},P={(x1,y1),(x2,y2),...,(xm,ym)};其中,I为人脸图像,P为该人脸图像的关键点坐标集合,m为关键点数量,(xm,ym)为第m个关键点的坐标,n表示人脸图像的数量,In为第n张人脸图像;
步骤(2).数据预处理:
统一人脸图像尺寸为H*W,同时归一化对应的关键点坐标,归一化公式为:
Figure BDA0002929333460000021
其中,w为原图像的宽度,h为原图像的高度,x和y是预处理之前的关键点坐标,cx和cy是预处理之后的关键点坐标,W是统一尺寸后的图像的宽度,H是统一尺寸后的图像的高度;
步骤(3).利用步骤(2)得到的预处理后的关键点坐标构建形状字典DS,将每张人脸图像的关键点坐标合并为形状特征向量(x1,x2,...,xm,y1,y2,...,ym),训练数据集中所有人脸图像对应的形状特征向量构成了形状字典DS∈R2m×n
步骤(4).利用步骤(2)得到的预处理后的关键点坐标生成二维高斯热图,公式如下:
Figure BDA0002929333460000022
其中,cx和cy是预处理之后的关键点的横坐标和纵坐标,σ是高斯分布的标准差,Y是二维高斯热图上点(x',y')处的像素值,最终生成的二维高斯热图大小为H*W;
步骤(5).由步骤(2)和步骤(4)生成训练集TA={(G1,V1),(G2,V2),...,(Gn,Vn)},V={R1,R2,...,Rm};其中,G为预处理之后的人脸图像,V为每张人脸图像m个关键点对应的m张高斯热图的集合,R为每个人脸关键点对应的二维高斯热图;
步骤(6).构建卷积神经网络,使用训练集TA对卷积神经网络进行训练,得到训练好的卷积神经网络模型;
步骤(7).在预测阶段,将待检测的人脸图像经过步骤(2)进行预处理,输入至步骤(6)训练好的卷积神经网络模型,输出相应的高斯热图V={R1,R2,...,Rm};
步骤(8).由步骤(7)所述的高斯热图得到对应的人脸关键点坐标与置信度,其中,高斯热图中像素值最大的点所在的位置即为人脸关键点,最大像素也就是该人脸关键点的置信度,计算公式如下:
Figure BDA0002929333460000023
Pi=max(Ri) (4)
其中,Ri为第i个关键点对应的高斯热图,(xi,yi)为第i个关键点的坐标,Pi为第i个关键点的置信度;
步骤(9).由步骤(8)得到的关键点坐标构建形状特征向量S,公式如下:
S=(x1,x2,...,xm,y1,y2,...,ym) (5)
步骤(10).由步骤(8)得到的置信度构建权重矩阵WS,公式如下:
WS=diag(w1,w2,...,wm,w1,w2,...,wm) (6)
Figure BDA0002929333460000031
其中,wi根据置信度得到,当Pi大于阈值θ时,wi=1,反之为0,diag(·)表示对角矩阵;
步骤(11).由步骤(10)得到的权重矩阵WS和步骤(3)得到的形状字典DS构建动态形状字典WSDS,并从中选出与WSS欧氏距离最近的k个样本形状向量构成矩阵M=[S1,S2,...,Sk],Si表示第i个距离最近的样本形状向量;
步骤(12).由步骤(11)得到的矩阵M和动态形状字典WSDS,计算k个样本形状向量的系数α=[α12,...,αk],公式如下:
Figure BDA0002929333460000032
其中,
Figure BDA0002929333460000033
为2-范数的平方,也就是均方误差;
步骤(13).由步骤(12)得到的系数计算α和形状字典DS重建人脸形状特征Snew,也就是人脸关键点检测结果,公式如下:
Snew=DSα (9)。
本发明的有益效果:
本发明通过基于高斯热图回归的神经网络来得到人脸关键点检测的初步结果,然后利用形状约束做进一步校正,利用训练集所构建的形状字典,根据检测结果中置信度高的人脸关键点来重建形状向量,可以有效提升检测精度;和传统的人脸关键点检测方法相比,检测精度可以提高约0.5个百分点。
附图说明
图1为本发明基于神经网络和形状约束的人脸关键点检测方法的流程框图。
图2为本发明采用的沙漏网络结构图。
图3为本发明的实际检测效果图。
具体实施方式
下面结合附图对本发明方法作进一步说明。
一种基于神经网络和形状约束的人脸关键点检测方法,以沙漏网络和数据集300W为例,其具体实施步骤如下:
一、获取人脸数据,并进行预处理,包括步骤(1)至(2):
步骤(1).输入数据集W={(I1,P1),(I2,P2),...,(In,Pn)},P={(x1,y1),(x2,y2),...,(x68,y68)}其中I为人脸图像,P为该人脸图像的关键点坐标集合,每张人脸图像标注了68个关键点,(xm,ym)为第m个关键点的坐标,n表示人脸图像的数量,In为第n张人脸图像。
步骤(2).数据预处理,统一人脸图像尺寸为256*256,同时归一化对应的关键点坐标,归一化公式为
Figure BDA0002929333460000041
其中,w为原图像的宽度,h为原图像的高度,x和y是预处理之前的关键点坐标,cx和cy是预处理之后的关键点坐标。
二、根据训练集标注的人脸关键点构建形状字典,具体为步骤(3):
步骤(3).利用步骤(2)得到的预处理后的关键点坐标构建形状字典DS,将每张人脸图像的关键点坐标合并为形状特征向量(x1,x2,...,x68,y1,y2,...,y68),训练集中所有人脸图像对应的形状特征向量构成了形状字典DS∈R136×n
三、建立神经网络模型,预测出待测人脸图像的关键点的热图,包括步骤(4)至步骤(7):
步骤(4).利用步骤(2)得到的关键点坐标生成高斯热图,公式如下:
Figure BDA0002929333460000042
其中,cx和cy是预处理之后的关键点的横坐标和纵坐标,σ是高斯分布的标准差,(x',y')是二维热图上待求点的横坐标和纵坐标,Y是二维热图上待求点的像素值,最终生成的二维热图大小为256*256。
步骤(5).由步骤(2)和步骤(3)生成训练集TA={(G1,V1),(G2,V2),...,(Gn,Vn)},V={R1,R2,...,R68};其中,G为预处理之后的人脸图像,V为每张人脸图像68个关键点对应的68张高斯热图的集合,R为每个人脸关键点对应的二维高斯热图。
步骤(6).构建卷积神经网络,本实施例采用沙漏网络,网络结构如图2所示,属于轻量级网络。使用训练集TA对卷积神经网络进行训练,所设计的卷积神经网络采用单阶网络框架,主干网络采用类似U型网络结构,输出采用热图的方式,如图1所示。其中,本实施例中,采用sigmoid函数作为激活函数,公式为:
Figure BDA0002929333460000051
采用的损失函数公式如下:
Figure BDA0002929333460000052
式中,L表示损失值,m表示每张人脸的关键点数量,Y表示高斯热图上每个点的实际像素值,Y'表示高斯热图上每个点的预测像素值,α和β是幂指数常数;H和W表示图像尺寸,C表示通道数,即每张人脸的关键点数量。
步骤(7).将图片输入至步骤(6)训练好的沙漏网络模型,输出相应的高斯热图V={R1,R2,...,R68}。
四、根据热图构建初始形状特征和权重矩阵,包括步骤(8)至步骤(10):
步骤(8).由步骤(7)得到的高斯热图得到对应的人脸关键点坐标与置信度,高斯热图中像素值最大的点所在的位置即为人脸关键点,最大像素也就是该人脸关键点的置信度,计算公式如下:
Figure BDA0002929333460000053
Pi=max(Ri) (6)
其中Ri为第i个关键点对应的高斯热图,(xi,yi)为第i个关键点的坐标,Pi为第i个关键点的置信度。
步骤(9).由步骤(8)得到的关键点坐标构建形状特征向量S,公式如下:
S=(x1,x2,...,x68,y1,y2,...,y68) (7)
步骤(10).由步骤(8)得到的置信度构建权重矩阵WS,公式如下:
WS=diag(w1,w2,...,w68,w1,w2,...,w68) (8)
Figure BDA0002929333460000061
其中,wi根据置信度得到,当Pi大于阈值θ=0.7时,wi=1,反之为0。diag(·)表示对角矩阵。
五、构建动态形状字典,重建人脸形状特征,包括步骤(11)至步骤(13):
步骤(11).由步骤(10)得到的权重矩阵WS和步骤(3)得到的形状字典DS构建动态形状字典WSDS,并从中选出与WSS欧氏距离最近的20个样本形状向量构成矩阵M=[S1,S2,...,S20]。
步骤(12).由步骤(11)得到的矩阵M和动态形状字典WSDS计算20个样本形状向量的系数α=[α12,...,α20],公式如下:
Figure BDA0002929333460000062
其中,
Figure BDA0002929333460000063
为2-范数的平方,也就是均方误差。
步骤(13).由步骤(12)得到的系数计算α和形状字典DS重建人脸形状特征Snew,也就是人脸关键点检测结果,公式如下:
Snew=DSα (11)
为了验证本发明所述的算法的优越性能,本发明在通用的人脸对齐数据集300W数据集(300Faces In-the-Wild Challenge(300-W),ICCV 2013)上进行了人脸关键点检测的实验。
在实验中使用了均一化误差norm error(nm)、模型尺寸size来对实验结果进行评估。相关计算公式如下:
Figure BDA0002929333460000064
Figure BDA0002929333460000071
其中,loc_label是关键点的实际坐标,loc_predict是关键点的预测坐标,dist是坐标之间的距离计算函数,m是每张人脸的关键点个数,dist_between_eyes是外眼角距离。
本发明所述方法的均一化误差在3.31%左右,远远高于大部分人脸关键点检测算法的精度(3.5%到7%),实际检测效果如图3所示。
以上列举的仅是本发明的具体实施例。显然,本发明不限于以上实施例,还可以有许多变形。本领域的普通技术人员能从本发明公开的内容直接导出或联想到的所有变形,均应认为是本发明的保护范围。

Claims (4)

1.一种基于神经网络和形状约束的人脸关键点检测方法,其特征在于,包括如下步骤:
步骤(1).采集人脸图像,并标记人脸关键点坐标,构成训练数据集T={(I1,P1),(I2,P2),...,(In,Pn)},P={(x1,y1),(x2,y2),...,(xm,ym)};其中,I为人脸图像,P为该人脸图像的关键点坐标集合,m为关键点数量,(xm,ym)为第m个关键点的坐标,n表示人脸图像的数量,In为第n张人脸图像;
步骤(2).数据预处理:
统一人脸图像尺寸为H*W,同时归一化对应的关键点坐标,归一化公式为:
Figure FDA0002929333450000011
其中,w为原图像的宽度,h为原图像的高度,x和y是预处理之前的关键点坐标,cx和cy是预处理之后的关键点坐标,W是统一尺寸后的图像的宽度,H是统一尺寸后的图像的高度;
步骤(3).利用步骤(2)得到的预处理后的关键点坐标构建形状字典DS,将每张人脸图像的关键点坐标合并为形状特征向量(x1,x2,...,xm,y1,y2,...,ym),训练数据集中所有人脸图像对应的形状特征向量构成了形状字典DS∈R2m×n
步骤(4).利用步骤(2)得到的预处理后的关键点坐标生成二维高斯热图,公式如下:
Figure FDA0002929333450000012
其中,cx和cy是预处理之后的关键点的横坐标和纵坐标,σ是高斯分布的标准差,Y是二维高斯热图上点(x',y')处的像素值,最终生成的二维高斯热图大小为H*W;
步骤(5).由步骤(2)和步骤(4)生成训练集TA={(G1,V1),(G2,V2),...,(Gn,Vn)},V={R1,R2,...,Rm};其中,G为预处理之后的人脸图像,V为每张人脸图像m个关键点对应的m张高斯热图的集合,R为每个人脸关键点对应的二维高斯热图;
步骤(6).构建卷积神经网络,使用训练集TA对卷积神经网络进行训练,得到训练好的卷积神经网络模型;
步骤(7).在预测阶段,将待检测的人脸图像经过步骤(2)进行预处理,输入至步骤(6)训练好的卷积神经网络模型,输出相应的高斯热图V={R1,R2,...,Rm};
步骤(8).由步骤(7)所述的高斯热图得到对应的人脸关键点坐标与置信度,其中,高斯热图中像素值最大的点所在的位置即为人脸关键点,最大像素也就是该人脸关键点的置信度,计算公式如下:
Figure FDA0002929333450000021
Pi=max(Ri) (4)
其中,Ri为第i个关键点对应的高斯热图,(xi,yi)为第i个关键点的坐标,Pi为第i个关键点的置信度;
步骤(9).由步骤(8)得到的关键点坐标构建形状特征向量S,公式如下:
S=(x1,x2,...,xm,y1,y2,...,ym) (5)
步骤(10).由步骤(8)得到的置信度构建权重矩阵WS,公式如下:
WS=diag(w1,w2,...,wm,w1,w2,...,wm) (6)
Figure FDA0002929333450000022
其中,wi根据置信度得到,当Pi大于阈值θ时,wi=1,反之为0,diag(·)表示对角矩阵;
步骤(11).由步骤(10)得到的权重矩阵WS和步骤(3)得到的形状字典DS构建动态形状字典WSDS,并从中选出与WSS欧氏距离最近的k个样本形状向量构成矩阵M=[S1,S2,...,Sk],Si表示第i个距离最近的样本形状向量;
步骤(12).由步骤(11)得到的矩阵M和动态形状字典WSDS,计算k个样本形状向量的系数α=[α12,...,αk],公式如下:
Figure FDA0002929333450000023
其中,
Figure FDA0002929333450000024
为2-范数的平方,也就是均方误差;
步骤(13).由步骤(12)得到的系数计算α和形状字典DS重建人脸形状特征Snew,也就是人脸关键点检测结果,公式如下:
Snew=DSα (9)。
2.如权利要求1所述的基于神经网络和形状约束的人脸关键点检测方法,其特征在于,步骤(6)所述的卷积神经网络采用沙漏网络结构。
3.如权利要求2所述的基于神经网络和形状约束的人脸关键点检测方法,其特征在于,所述的沙漏网络采用sigmoid激活函数。
4.如权利要求1或2所述的基于神经网络和形状约束的人脸关键点检测方法,其特征在于,所述的步骤(6)在训练时,损失函数公式如下:
Figure FDA0002929333450000031
式中,L表示损失值,m表示每张人脸的关键点数量,Y表示高斯热图上每个点的实际像素值,Y'表示高斯热图上每个点的预测像素值,α和β是幂指数常数;H和W表示图像尺寸,C表示通道数,即每张人脸的关键点数量。
CN202110144231.XA 2021-02-02 2021-02-02 一种基于神经网络和形状约束的人脸关键点检测方法 Active CN112784800B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110144231.XA CN112784800B (zh) 2021-02-02 2021-02-02 一种基于神经网络和形状约束的人脸关键点检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110144231.XA CN112784800B (zh) 2021-02-02 2021-02-02 一种基于神经网络和形状约束的人脸关键点检测方法

Publications (2)

Publication Number Publication Date
CN112784800A true CN112784800A (zh) 2021-05-11
CN112784800B CN112784800B (zh) 2022-05-10

Family

ID=75760563

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110144231.XA Active CN112784800B (zh) 2021-02-02 2021-02-02 一种基于神经网络和形状约束的人脸关键点检测方法

Country Status (1)

Country Link
CN (1) CN112784800B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114093012A (zh) * 2022-01-18 2022-02-25 荣耀终端有限公司 人脸遮挡的检测方法和检测装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109858466A (zh) * 2019-03-01 2019-06-07 北京视甄智能科技有限公司 一种基于卷积神经网络的人脸关键点检测方法及装置
US20190294868A1 (en) * 2016-06-01 2019-09-26 Ohio State Innovation Foundation System and method for recognition and annotation of facial expressions
CN110490158A (zh) * 2019-08-23 2019-11-22 安徽大学 一种基于多级模型的鲁棒人脸对齐方法
CN110532928A (zh) * 2019-08-23 2019-12-03 安徽大学 基于面部区域规范化和可变形沙漏网络的面部关键点检测方法
CN111046826A (zh) * 2019-12-20 2020-04-21 北京碧拓科技有限公司 一种远红外热成像人脸关键点的定位方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190294868A1 (en) * 2016-06-01 2019-09-26 Ohio State Innovation Foundation System and method for recognition and annotation of facial expressions
CN109858466A (zh) * 2019-03-01 2019-06-07 北京视甄智能科技有限公司 一种基于卷积神经网络的人脸关键点检测方法及装置
CN110490158A (zh) * 2019-08-23 2019-11-22 安徽大学 一种基于多级模型的鲁棒人脸对齐方法
CN110532928A (zh) * 2019-08-23 2019-12-03 安徽大学 基于面部区域规范化和可变形沙漏网络的面部关键点检测方法
CN111046826A (zh) * 2019-12-20 2020-04-21 北京碧拓科技有限公司 一种远红外热成像人脸关键点的定位方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114093012A (zh) * 2022-01-18 2022-02-25 荣耀终端有限公司 人脸遮挡的检测方法和检测装置

Also Published As

Publication number Publication date
CN112784800B (zh) 2022-05-10

Similar Documents

Publication Publication Date Title
CN109886121B (zh) 一种遮挡鲁棒的人脸关键点定位方法
CN110348330B (zh) 基于vae-acgan的人脸姿态虚拟视图生成方法
WO2020108362A1 (zh) 人体姿态检测方法、装置、设备及存储介质
Li et al. Traffic scene segmentation based on RGB-D image and deep learning
CN112580515B (zh) 一种基于高斯热图回归的轻量级人脸关键点检测方法
CN110059589B (zh) 一种基于Mask R-CNN神经网络的虹膜图像中虹膜区域的分割方法
CN111583263A (zh) 一种基于联合动态图卷积的点云分割方法
CN110032925B (zh) 一种基于改进胶囊网络与算法的手势图像分割与识别方法
CN112800903B (zh) 一种基于时空图卷积神经网络的动态表情识别方法及系统
CN112163498B (zh) 前景引导和纹理聚焦的行人重识别模型建立方法及其应用
CN112232184B (zh) 一种基于深度学习和空间转换网络的多角度人脸识别方法
CN104077742B (zh) 基于Gabor特征的人脸素描合成方法及系统
Liu et al. SLPR: A deep learning based chinese ship license plate recognition framework
CN112784800B (zh) 一种基于神经网络和形状约束的人脸关键点检测方法
CN116758621B (zh) 基于自注意力机制的遮挡人脸面部表情深度卷积识别方法
CN110969101A (zh) 一种基于hog和特征描述子的人脸检测与跟踪方法
CN114267060A (zh) 基于不确定抑制网络模型的人脸年龄识别方法及系统
CN112329662B (zh) 基于无监督学习的多视角显著性估计方法
CN114360058B (zh) 一种基于行走视角预测的跨视角步态识别方法
CN112348007B (zh) 一种基于神经网络的光学字符识别方法
CN114758135A (zh) 一种基于注意力机制的无监督图像语义分割方法
CN114821632A (zh) 一种遮挡行人重识别方法
CN112633229A (zh) 一种基于spd流形的行人重识别系统
Song et al. Spatial-Aware Dynamic Lightweight Self-Supervised Monocular Depth Estimation
Wang Improved facial expression recognition method based on gan

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant