CN112784800B - 一种基于神经网络和形状约束的人脸关键点检测方法 - Google Patents
一种基于神经网络和形状约束的人脸关键点检测方法 Download PDFInfo
- Publication number
- CN112784800B CN112784800B CN202110144231.XA CN202110144231A CN112784800B CN 112784800 B CN112784800 B CN 112784800B CN 202110144231 A CN202110144231 A CN 202110144231A CN 112784800 B CN112784800 B CN 112784800B
- Authority
- CN
- China
- Prior art keywords
- face
- key point
- shape
- neural network
- key
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 32
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 15
- 238000012549 training Methods 0.000 claims abstract description 20
- 239000011159 matrix material Substances 0.000 claims abstract description 15
- 238000000034 method Methods 0.000 claims abstract description 11
- 238000004364 calculation method Methods 0.000 claims abstract description 6
- 239000013598 vector Substances 0.000 claims description 18
- 238000007781 pre-processing Methods 0.000 claims description 15
- 238000013527 convolutional neural network Methods 0.000 claims description 12
- 239000008186 active pharmaceutical agent Substances 0.000 claims description 9
- 238000010606 normalization Methods 0.000 claims description 3
- 239000004576 sand Substances 0.000 claims description 3
- 230000004913 activation Effects 0.000 claims description 2
- 238000010195 expression analysis Methods 0.000 abstract description 2
- 238000013135 deep learning Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000000265 homogenisation Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/28—Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Molecular Biology (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于神经网络和形状约束的人脸关键点检测方法,属于人脸识别和分析领域,用来解决人脸关键点检测的问题,主要应用于自动人脸识别、表情分析、三维人脸重建及三维动画等人脸相关问题。本发明主要包括如下步骤:首先,根据训练集标注的人脸关键点构建形状字典;接着,利用神经网络前向预测出关键点的热图;然后,根据热图构建初始形状特征和权重矩阵;最后,重建形状特征。本发明可以实现遮挡情况下的人脸关键点检测,计算速度快,计算复杂度低,检测精度高。
Description
技术领域
本发明属于人脸识别和分析领域,用于人脸关键点检测,具体为一种基于神经网络和形状约束的人脸关键点检测方法。
背景技术
人脸关键点检测是人脸识别和分析领域中的关键一步,它是诸如自动人脸识别、表情分析、三维人脸重建及三维动画等其它人脸相关问题的前提和突破口。近些年来,深度学习方法由于其自动学习及持续学习能力,已被成功应用到了图像识别与分析、语音识别和自然语言处理等很多领域,且在这些方面都带来了很显著的改善。深度学习方法也在人脸关键点检测的研究上取得了极大的进展。
传统的深度学习方法的模型大小与检测精度之间相关性极大,现有的高精度人脸关键点检测方法往往具有较大的模型尺寸,轻量级模型往往达不到检测精度要求,从而为实际应用带来了困难。
发明内容
本发明的目的是给出一种基于神经网络和形状约束的人脸关键点检测方法,训练人脸关键点检测模型,并且用于现实场景的人脸关键点检测,在轻量级的基础上实现较高的精度,且具有遮挡鲁棒性。
本发明采取的技术方案是:
首先,根据训练集标注的人脸关键点构建形状字典;接着,利用神经网络前向预测出关键点的热图;然后,根据热图构建初始形状特征和权重矩阵;最后,重建形状特征。本发明解决其技术问题所采用的技术方案如下:
一种基于神经网络和形状约束的人脸关键点检测方法,包括如下步骤:
步骤(1).采集人脸图像,并标记人脸关键点坐标,构成训练数据集T={(I1,P1),(I2,P2),...,(In,Pn)},P={(x1,y1),(x2,y2),...,(xm,ym)};其中,I为人脸图像,P为该人脸图像的关键点坐标集合,m为关键点数量,(xm,ym)为第m个关键点的坐标,n表示人脸图像的数量,In为第n张人脸图像;
步骤(2).数据预处理:
统一人脸图像尺寸为H*W,同时归一化对应的关键点坐标,归一化公式为:
其中,w为原图像的宽度,h为原图像的高度,x和y是预处理之前的关键点坐标,cx和cy是预处理之后的关键点坐标,W是统一尺寸后的图像的宽度,H是统一尺寸后的图像的高度;
步骤(3).利用步骤(2)得到的预处理后的关键点坐标构建形状字典DS,将每张人脸图像的关键点坐标合并为形状特征向量(x1,x2,...,xm,y1,y2,...,ym),训练数据集中所有人脸图像对应的形状特征向量构成了形状字典DS∈R2m×n;
步骤(4).利用步骤(2)得到的预处理后的关键点坐标生成二维高斯热图,公式如下:
其中,cx和cy是预处理之后的关键点的横坐标和纵坐标,σ是高斯分布的标准差,Y是二维高斯热图上点(x',y')处的像素值,最终生成的二维高斯热图大小为H*W;
步骤(5).由步骤(2)和步骤(4)生成训练集TA={(G1,V1),(G2,V2),...,(Gn,Vn)},V={R1,R2,...,Rm};其中,G为预处理之后的人脸图像,V为每张人脸图像m个关键点对应的m张高斯热图的集合,R为每个人脸关键点对应的二维高斯热图;
步骤(6).构建卷积神经网络,使用训练集TA对卷积神经网络进行训练,得到训练好的卷积神经网络模型;
步骤(7).在预测阶段,将待检测的人脸图像经过步骤(2)进行预处理,输入至步骤(6)训练好的卷积神经网络模型,输出相应的高斯热图V={R1,R2,...,Rm};
步骤(8).由步骤(7)所述的高斯热图得到对应的人脸关键点坐标与置信度,其中,高斯热图中像素值最大的点所在的位置即为人脸关键点,最大像素也就是该人脸关键点的置信度,计算公式如下:
Pi=max(Ri) (4)
其中,Ri为第i个关键点对应的高斯热图,(xi,yi)为第i个关键点的坐标,Pi为第i个关键点的置信度;
步骤(9).由步骤(8)得到的关键点坐标构建形状特征向量S,公式如下:
S=(x1,x2,...,xm,y1,y2,...,ym) (5)
步骤(10).由步骤(8)得到的置信度构建权重矩阵WS,公式如下:
WS=diag(w1,w2,...,wm,w1,w2,...,wm) (6)
其中,wi根据置信度得到,当Pi大于阈值θ时,wi=1,反之为0,diag(·)表示对角矩阵;
步骤(11).由步骤(10)得到的权重矩阵WS和步骤(3)得到的形状字典DS构建动态形状字典WSDS,并从中选出与WSS欧氏距离最近的k个样本形状向量构成矩阵M=[S1,S2,...,Sk],Si表示第i个距离最近的样本形状向量;
步骤(12).由步骤(11)得到的矩阵M和WSS,计算k个样本形状向量的系数α=[α1,α2,...,αk],公式如下:
步骤(13).由步骤(12)得到的系数计算α和形状字典DS重建人脸形状特征Snew,也就是人脸关键点检测结果,公式如下:
Snew=DSα (9)。
本发明的有益效果:
本发明通过基于高斯热图回归的神经网络来得到人脸关键点检测的初步结果,然后利用形状约束做进一步校正,利用训练集所构建的形状字典,根据检测结果中置信度高的人脸关键点来重建形状向量,可以有效提升检测精度;和传统的人脸关键点检测方法相比,检测精度可以提高约0.5个百分点。
附图说明
图1为本发明基于神经网络和形状约束的人脸关键点检测方法的流程框图。
图2为本发明采用的沙漏网络结构图。
图3为本发明的实际检测效果图。
具体实施方式
下面结合附图对本发明方法作进一步说明。
一种基于神经网络和形状约束的人脸关键点检测方法,以沙漏网络和数据集300W为例,其具体实施步骤如下:
一、获取人脸数据,并进行预处理,包括步骤(1)至(2):
步骤(1).输入数据集W={(I1,P1),(I2,P2),...,(In,Pn)},P={(x1,y1),(x2,y2),...,(x68,y68)}其中I为人脸图像,P为该人脸图像的关键点坐标集合,每张人脸图像标注了68个关键点,(xm,ym)为第m个关键点的坐标,n表示人脸图像的数量,In为第n张人脸图像。
步骤(2).数据预处理,统一人脸图像尺寸为256*256,同时归一化对应的关键点坐标,归一化公式为
其中,w为原图像的宽度,h为原图像的高度,x和y是预处理之前的关键点坐标,cx和cy是预处理之后的关键点坐标。
二、根据训练集标注的人脸关键点构建形状字典,具体为步骤(3):
步骤(3).利用步骤(2)得到的预处理后的关键点坐标构建形状字典DS,将每张人脸图像的关键点坐标合并为形状特征向量(x1,x2,...,x68,y1,y2,...,y68),训练集中所有人脸图像对应的形状特征向量构成了形状字典DS∈R136×n。
三、建立神经网络模型,预测出待测人脸图像的关键点的热图,包括步骤(4)至步骤(7):
步骤(4).利用步骤(2)得到的关键点坐标生成高斯热图,公式如下:
其中,cx和cy是预处理之后的关键点的横坐标和纵坐标,σ是高斯分布的标准差,(x',y')是二维热图上待求点的横坐标和纵坐标,Y是二维热图上待求点的像素值,最终生成的二维热图大小为256*256。
步骤(5).由步骤(2)和步骤(3)生成训练集TA={(G1,V1),(G2,V2),...,(Gn,Vn)},V={R1,R2,...,R68};其中,G为预处理之后的人脸图像,V为每张人脸图像68个关键点对应的68张高斯热图的集合,R为每个人脸关键点对应的二维高斯热图。
步骤(6).构建卷积神经网络,本实施例采用沙漏网络,网络结构如图2所示,属于轻量级网络。使用训练集TA对卷积神经网络进行训练,所设计的卷积神经网络采用单阶网络框架,主干网络采用类似U型网络结构,输出采用热图的方式,如图1所示。其中,本实施例中,采用sigmoid函数作为激活函数,公式为:
采用的损失函数公式如下:
式中,L表示损失值,m表示每张人脸的关键点数量,Y表示高斯热图上每个点的实际像素值,Y'表示高斯热图上每个点的预测像素值,α和β是幂指数常数;H和W表示图像尺寸,C表示通道数,即每张人脸的关键点数量。
步骤(7).将图片输入至步骤(6)训练好的沙漏网络模型,输出相应的高斯热图V={R1,R2,...,R68}。
四、根据热图构建初始形状特征和权重矩阵,包括步骤(8)至步骤(10):
步骤(8).由步骤(7)得到的高斯热图得到对应的人脸关键点坐标与置信度,高斯热图中像素值最大的点所在的位置即为人脸关键点,最大像素也就是该人脸关键点的置信度,计算公式如下:
Pi=max(Ri) (6)
其中Ri为第i个关键点对应的高斯热图,(xi,yi)为第i个关键点的坐标,Pi为第i个关键点的置信度。
步骤(9).由步骤(8)得到的关键点坐标构建形状特征向量S,公式如下:
S=(x1,x2,...,x68,y1,y2,...,y68) (7)
步骤(10).由步骤(8)得到的置信度构建权重矩阵WS,公式如下:
WS=diag(w1,w2,...,w68,w1,w2,...,w68) (8)
其中,wi根据置信度得到,当Pi大于阈值θ=0.7时,wi=1,反之为0。diag(·)表示对角矩阵。
五、构建动态形状字典,重建人脸形状特征,包括步骤(11)至步骤(13):
步骤(11).由步骤(10)得到的权重矩阵WS和步骤(3)得到的形状字典DS构建动态形状字典WSDS,并从中选出与WSS欧氏距离最近的20个样本形状向量构成矩阵M=[S1,S2,...,S20]。
步骤(12).由步骤(11)得到的矩阵M和WSS计算20个样本形状向量的系数α=[α1,α2,...,α20],公式如下:
步骤(13).由步骤(12)得到的系数计算α和形状字典DS重建人脸形状特征Snew,也就是人脸关键点检测结果,公式如下:
Snew=DSα (11)
为了验证本发明所述的算法的优越性能,本发明在通用的人脸对齐数据集300W数据集(300Faces In-the-Wild Challenge(300-W),ICCV 2013)上进行了人脸关键点检测的实验。
在实验中使用了均一化误差norm error(nm)、模型尺寸size来对实验结果进行评估。相关计算公式如下:
其中,loc_label是关键点的实际坐标,loc_predict是关键点的预测坐标,dist是坐标之间的距离计算函数,m是每张人脸的关键点个数,dist_between_eyes是外眼角距离。
本发明所述方法的均一化误差在3.31%左右,远远高于大部分人脸关键点检测算法的精度(3.5%到7%),实际检测效果如图3所示。
以上列举的仅是本发明的具体实施例。显然,本发明不限于以上实施例,还可以有许多变形。本领域的普通技术人员能从本发明公开的内容直接导出或联想到的所有变形,均应认为是本发明的保护范围。
Claims (4)
1.一种基于神经网络和形状约束的人脸关键点检测方法,其特征在于,包括如下步骤:
步骤(1).采集人脸图像,并标记人脸关键点坐标,构成训练数据集T={(I1,P1),(I2,P2),...,(In,Pn)},P={(x1,y1),(x2,y2),...,(xm,ym)};其中,I为人脸图像,P为该人脸图像的关键点坐标集合,m为关键点数量,(xm,ym)为第m个关键点的坐标,n表示人脸图像的数量,In为第n张人脸图像;
步骤(2).数据预处理:
统一人脸图像尺寸为H*W,同时归一化对应的关键点坐标,归一化公式为:
其中,w为原图像的宽度,h为原图像的高度,x和y是预处理之前的关键点坐标,cx和cy是预处理之后的关键点坐标,W是统一尺寸后的图像的宽度,H是统一尺寸后的图像的高度;
步骤(3).利用步骤(2)得到的预处理后的关键点坐标构建形状字典DS,将每张人脸图像的关键点坐标合并为形状特征向量(x1,x2,...,xm,y1,y2,...,ym),训练数据集中所有人脸图像对应的形状特征向量构成了形状字典DS∈R2m×n;
步骤(4).利用步骤(2)得到的预处理后的关键点坐标生成二维高斯热图,公式如下:
其中,cx和cy是预处理之后的关键点的横坐标和纵坐标,σ是高斯分布的标准差,Y是二维高斯热图上点(x',y')处的像素值,最终生成的二维高斯热图大小为H*W;
步骤(5).由步骤(2)和步骤(4)生成训练集TA={(G1,V1),(G2,V2),...,(Gn,Vn)},V={R1,R2,...,Rm};其中,G为预处理之后的人脸图像,V为每张人脸图像m个关键点对应的m张高斯热图的集合,R为每个人脸关键点对应的二维高斯热图;
步骤(6).构建卷积神经网络,使用训练集TA对卷积神经网络进行训练,得到训练好的卷积神经网络模型;
步骤(7).在预测阶段,将待检测的人脸图像经过步骤(2)进行预处理,输入至步骤(6)训练好的卷积神经网络模型,输出相应的高斯热图V={R1,R2,...,Rm};
步骤(8).由步骤(7)所述的高斯热图得到对应的人脸关键点坐标与置信度,其中,高斯热图中像素值最大的点所在的位置即为人脸关键点,最大像素也就是该人脸关键点的置信度,计算公式如下:
Pi=max(Ri) (4)
其中,Ri为第i个关键点对应的高斯热图,(xi,yi)为第i个关键点的坐标,Pi为第i个关键点的置信度;
步骤(9).由步骤(8)得到的关键点坐标构建形状特征向量S,公式如下:
S=(x1,x2,...,xm,y1,y2,...,ym) (5)
步骤(10).由步骤(8)得到的置信度构建权重矩阵WS,公式如下:
WS=diag(w1,w2,...,wm,w1,w2,...,wm) (6)
其中,wi根据置信度得到,当Pi大于阈值θ时,wi=1,反之为0,diag(·)表示对角矩阵;
步骤(11).由步骤(10)得到的权重矩阵WS和步骤(3)得到的形状字典DS构建动态形状字典WSDS,并从中选出与WSS欧氏距离最近的k个样本形状向量构成矩阵M=[S1,S2,...,Sk],Si表示第i个距离最近的样本形状向量;
步骤(12).由步骤(11)得到的矩阵M和WSS,计算k个样本形状向量的系数α=[α1,α2,...,αk],公式如下:
步骤(13).由步骤(12)得到的系数计算α和形状字典DS重建人脸形状特征Snew,也就是人脸关键点检测结果,公式如下:
Snew=DSα (9)。
2.如权利要求1所述的基于神经网络和形状约束的人脸关键点检测方法,其特征在于,步骤(6)所述的卷积神经网络采用沙漏网络结构。
3.如权利要求2所述的基于神经网络和形状约束的人脸关键点检测方法,其特征在于,所述的沙漏网络采用sigmoid激活函数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110144231.XA CN112784800B (zh) | 2021-02-02 | 2021-02-02 | 一种基于神经网络和形状约束的人脸关键点检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110144231.XA CN112784800B (zh) | 2021-02-02 | 2021-02-02 | 一种基于神经网络和形状约束的人脸关键点检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112784800A CN112784800A (zh) | 2021-05-11 |
CN112784800B true CN112784800B (zh) | 2022-05-10 |
Family
ID=75760563
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110144231.XA Active CN112784800B (zh) | 2021-02-02 | 2021-02-02 | 一种基于神经网络和形状约束的人脸关键点检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112784800B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114093012B (zh) * | 2022-01-18 | 2022-06-10 | 荣耀终端有限公司 | 人脸遮挡的检测方法和检测装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109858466A (zh) * | 2019-03-01 | 2019-06-07 | 北京视甄智能科技有限公司 | 一种基于卷积神经网络的人脸关键点检测方法及装置 |
CN110490158A (zh) * | 2019-08-23 | 2019-11-22 | 安徽大学 | 一种基于多级模型的鲁棒人脸对齐方法 |
CN110532928A (zh) * | 2019-08-23 | 2019-12-03 | 安徽大学 | 基于面部区域规范化和可变形沙漏网络的面部关键点检测方法 |
CN111046826A (zh) * | 2019-12-20 | 2020-04-21 | 北京碧拓科技有限公司 | 一种远红外热成像人脸关键点的定位方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3465615A4 (en) * | 2016-06-01 | 2020-05-06 | The Ohio State Innovation Foundation | SYSTEM AND METHOD FOR RECOGNIZING AND ANNOTATING FACE EXPRESSIONS |
-
2021
- 2021-02-02 CN CN202110144231.XA patent/CN112784800B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109858466A (zh) * | 2019-03-01 | 2019-06-07 | 北京视甄智能科技有限公司 | 一种基于卷积神经网络的人脸关键点检测方法及装置 |
CN110490158A (zh) * | 2019-08-23 | 2019-11-22 | 安徽大学 | 一种基于多级模型的鲁棒人脸对齐方法 |
CN110532928A (zh) * | 2019-08-23 | 2019-12-03 | 安徽大学 | 基于面部区域规范化和可变形沙漏网络的面部关键点检测方法 |
CN111046826A (zh) * | 2019-12-20 | 2020-04-21 | 北京碧拓科技有限公司 | 一种远红外热成像人脸关键点的定位方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112784800A (zh) | 2021-05-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113657124B (zh) | 基于循环共同注意力Transformer的多模态蒙汉翻译方法 | |
CN112580515B (zh) | 一种基于高斯热图回归的轻量级人脸关键点检测方法 | |
CN110059589B (zh) | 一种基于Mask R-CNN神经网络的虹膜图像中虹膜区域的分割方法 | |
CN105138973B (zh) | 人脸认证的方法和装置 | |
CN103605972B (zh) | 一种基于分块深度神经网络的非限制环境人脸验证方法 | |
CN111583263A (zh) | 一种基于联合动态图卷积的点云分割方法 | |
CN112232184B (zh) | 一种基于深度学习和空间转换网络的多角度人脸识别方法 | |
CN112734764A (zh) | 一种基于对抗网络的无监督医学图像分割方法 | |
CN112329662B (zh) | 基于无监督学习的多视角显著性估计方法 | |
CN113112534A (zh) | 一种基于迭代式自监督的三维生物医学图像配准方法 | |
CN114639000A (zh) | 一种基于跨样本注意力聚合的小样本学习方法和装置 | |
CN112784800B (zh) | 一种基于神经网络和形状约束的人脸关键点检测方法 | |
CN116758621B (zh) | 基于自注意力机制的遮挡人脸面部表情深度卷积识别方法 | |
CN114267060A (zh) | 基于不确定抑制网络模型的人脸年龄识别方法及系统 | |
Chen et al. | Augnet: End-to-end unsupervised visual representation learning with image augmentation | |
CN114360058B (zh) | 一种基于行走视角预测的跨视角步态识别方法 | |
CN112396089B (zh) | 基于lfgc网络和压缩激励模块的图像匹配方法 | |
CN112633229A (zh) | 一种基于spd流形的行人重识别系统 | |
CN114758135A (zh) | 一种基于注意力机制的无监督图像语义分割方法 | |
CN114821632A (zh) | 一种遮挡行人重识别方法 | |
Song et al. | Spatial-aware dynamic lightweight self-supervised monocular depth estimation | |
CN111523406A (zh) | 一种基于生成对抗网络改进结构的偏转人脸转正方法 | |
CN112487927A (zh) | 一种基于物体关联注意力的室内场景识别实现方法及系统 | |
CN114863505B (zh) | 一种基于三叉戟卷积神经网络的行人重识别方法 | |
CN118609081B (zh) | 一种基于行嵌入聚类与特征交叉融合的车道线检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |