CN112036253A - 一种基于深度学习的人脸关键点定位方法 - Google Patents

一种基于深度学习的人脸关键点定位方法 Download PDF

Info

Publication number
CN112036253A
CN112036253A CN202010781557.9A CN202010781557A CN112036253A CN 112036253 A CN112036253 A CN 112036253A CN 202010781557 A CN202010781557 A CN 202010781557A CN 112036253 A CN112036253 A CN 112036253A
Authority
CN
China
Prior art keywords
face
image
training data
training
key point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010781557.9A
Other languages
English (en)
Other versions
CN112036253B (zh
Inventor
林三吉
刘清平
陈丰生
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Haina Zhiyuan Digital Technology Shanghai Co ltd
Original Assignee
Haina Zhiyuan Digital Technology Shanghai Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Haina Zhiyuan Digital Technology Shanghai Co ltd filed Critical Haina Zhiyuan Digital Technology Shanghai Co ltd
Priority to CN202010781557.9A priority Critical patent/CN112036253B/zh
Publication of CN112036253A publication Critical patent/CN112036253A/zh
Application granted granted Critical
Publication of CN112036253B publication Critical patent/CN112036253B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

基于深度学习的人脸关键点定位方法包括:采用普通卷积层外加堆叠数个Mobilenet V2 block构建骨干网络模型以实现模型轻量化;在‑30°至+30°内每隔3度对采集到的原始人脸图像训练数据进行一次旋转,再进行一次水平翻转,得到扩充后的人脸图像训练数据;对扩充后人脸图像训练数据灰度转换以获得人脸灰度图像训练数据;将人脸灰度图像训练数据、每个人脸关键点对应损失权重及标注人脸关键点代入模型中进行训练,在训练过程中,基于模型训练出的各个人脸关键点与对应标注的人脸关键点计算误差值,基于误差值设定阈值,将人脸灰度图像训练数据对应的值与阈值进行比较,若低于则丢弃该人脸灰度图像训练数据,否则保留。

Description

一种基于深度学习的人脸关键点定位方法
技术领域
本发明涉及人脸识别技术领域,特别是涉及一种基于深度学习的人脸关键点定位方法。
背景技术
人脸关键点定位是人脸识别领域的一个重要研究方向,用于人脸姿态估计,配合式活体检测。目前人脸关键点定位算法为了实现较高的定位精度,通常采用复杂的网络结构,或在训练数据中引入额外的人工标注辅助训练,或采用辅助算法进行训练数据增强。这就导致了相关算法实施过程投入较大,同时所得到的算法模型亦较为臃肿,无法在移动端等对轻量化要求较为苛刻的场景中使用。另一方面,训练数据中的标注误差也导致了模型精度的提升空间。
发明内容
本发明针对现有技术存在的问题和不足,提供一种基于深度学习的人脸关键点定位方法。
本发明是通过下述技术方案来解决上述技术问题的:
本发明提供一种基于深度学习的人脸关键点定位方法,其特点在于,其包括以下步骤:
构建骨干网络模型:采用普通卷积层外加堆叠数个Mobilenet V2 block构建骨干网络模型以实现模型轻量化,并在骨干网络模型中采用高阶特征结合低阶特征的方式进行人脸关键点位置训练和预测;
增强离线数据:在-30°至+30°内每隔3度对采集到的原始人脸图像训练数据进行一次旋转,再进行一次水平翻转,从而得到扩充后的人脸图像训练数据;
增强灰度:对扩充后的人脸图像训练数据进行灰度转换以获得人脸灰度图像训练数据;
模型训练过程中考虑标注误差的训练损失和丢弃部分简单样本:对每个人脸关键点产生的损失设置不同的损失权重,将人脸灰度图像训练数据、每个人脸关键点对应的损失权重以及人脸灰度图像对应的标注人脸关键点代入骨干网络模型中进行训练,在训练过程中,基于骨干网络模型训练出的各个人脸关键点与对应标注的人脸关键点计算出误差值,基于误差值设定阈值,将人脸灰度图像训练数据对应的值与阈值进行比较,若低于则丢弃该人脸灰度图像训练数据,否则保留该人脸灰度图像训练数据进行模型训练。
较佳地,构建骨干网络模型:骨干网络模型依次包括普通卷积层和4个MobilenetV2 Block,在骨干网络模型的尾部,通过长宽为7的卷积核将特征图处理成1×1的高阶特征值,将最后一层MobilenetV2 Block和卷积核特征图进行全局平均池化,分别得到相应低阶且维度为1×1的特征值,并与高阶特征值进行拼接,然后由一层全连接层进行人脸68个关键点的位置训练和预测。
较佳地,增强离线数据:在-30°至+30°内每隔3度对原始人脸图像训练数据进行一次旋转,每次旋转得到旋转之后的landmark、以及该次旋转所对应的旋转矩阵M,由landmark计算面部区域face_gt,使用旋转矩阵M对原始人脸图像进行仿射变换,得到变换后的图像ImgT,使用人脸检测算法,从图像ImgT中检测人脸图像face_detect,使用人脸图像face_detect与面部区域face_gt的IOU值来判定所检测的人脸图像face_detect是否是所需要的人脸图像,在满足IOU值条件之后,使用人脸图像face_detect的图像边界对landmark进行归一化,以便算法更快收敛。
较佳地,对所得到的人脸图像face_detect以及归一化的landmark做水平翻转进行数据增强,并将翻转前后的人脸图像和landmark分别存储,以备模型训练调用。
较佳地,增强灰度:步骤S21、将扩充后的人脸图像训练数据转换至灰度空间,以获取训练图像的灰度图;
步骤S22、对步骤S21所得到的灰度图进行亮度增强,对灰度图的每个像素值乘以大于1的增强系数,之后在0~255范围内对灰度图各像素值进行截断;
步骤S23、使用步骤S22所获得的经过亮度增强的灰度图进行训练,得到图像算法模型,该图像算法模型在生产环境上线后,进行人脸关键点预测时,先将图像转换至灰度空间,并进行亮度增强,但是此时使用的增强系数应小于训练时所使用的增强系数。
较佳地,步骤S1、计算人脸面部各关键点所产生的推理损失:
Figure BDA0002620429430000031
式(1)中,N为人脸面部关键点数量,lm为人脸灰度图像训练数据中一个分组batch中第m个样本的损失,pn为神经网络推断出的第n个关键点的坐标,
Figure BDA0002620429430000032
为经过数据增强处理的标注点坐标,二者的L2距离即为推理误差,wn为加权系数,不同位置面部关键点设置不同的加权系数,按照公式(1)计算出一个分组batch中各样本所产生的损失;
步骤S2、计算简单样本和困难样本划分阈值;
Figure BDA0002620429430000033
式(2)中,M为分组batch大小,α为调节系数,公式首先计算整个batch所产生的损失均值,将该均值乘以α得到划分阈值thod,低于该阈值为简单样本,高于该阈值为困难样本,α越小,则简单样本数量越少;
步骤S3、使用threshVal筛选剔除简单样本;
Figure BDA0002620429430000041
式(3)中,maskm为样本难易程度标识,0:简单样本,1:困难样本,若该样本为简单样本,则忽略该样本,使用所有困难样本,组成新分组batch2;
步骤S4、计算新分组batch2的样本数量;
Figure BDA0002620429430000042
式(4)中,BS即为batch2的样本数量;
步骤S5、计算batch2的平均损失,以进行反向传播;
Figure BDA0002620429430000043
式(5)中,L即为该次训练batch反向传播所使用的平均损失。
在符合本领域常识的基础上,上述各优选条件,可任意组合,即得本发明各较佳实例。
本发明的积极进步效果在于:
本发明轻量化的设计,进一步降低了模型的大小与计算量,更适用于移动端的应用场景。模型对人脸关键点定位的准确度也大幅提升,完全满足移动端进行人脸姿态估计,以及配合式活体检测的需求。在实际应用的过程中,对光线强度引起的干扰具有较高的鲁棒性。
附图说明
图1为本发明实施例的骨干网络结构图。
图2为本发明实施例的离线数据增强流程图。
图3为本发明实施例的灰度增强处理流程图。
图4为本发明实施例的样本损失处理流程图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
本实施例提供一种基于深度学习的人脸关键点定位方法,其包括:
1、构建骨干网络模型:采用普通卷积层外加堆叠数个MobilenetV2 block构建骨干网络模型以实现模型轻量化,并在骨干网络模型中采用高阶特征结合低阶特征的方式进行人脸关键点位置训练和预测。
具体地,如图1所示,骨干网络模型依次包括普通卷积层(Conv 3*3)和4个MobilenetV2 Block,在骨干网络模型的尾部,通过长宽为7的卷积核(Conv 3*3)将特征图处理成1×1的高阶特征值(Conv 7*7),便于与低阶特征进行融合。将最后一层MobilenetV2Block(Block 14*14)和卷积核(Conv 3*3)特征图进行全局平均池化,分别得到相应低阶且维度为1×1的特征值(Avg),并与高阶特征值进行拼接,然后由一层全连接层(FC 136)进行人脸68个关键点的位置训练和预测。
2、增强离线数据:在-30°至+30°内每隔3度对采集到的原始人脸图像训练数据进行一次旋转,再进行一次水平翻转,从而得到扩充后的人脸图像训练数据。
如图2所示,在-30°至+30°内每隔3度对原始人脸图像训练数据进行一次旋转,每次旋转得到旋转之后的landmark、以及该次旋转所对应的旋转矩阵M,由landmark计算面部区域face_gt,使用旋转矩阵M对原始人脸图像进行仿射变换,得到变换后的图像ImgT,使用人脸检测算法(如MTCNN等),从图像ImgT中检测人脸图像face_detect。由于单张图片中可能包含多个人脸图像,因此需要,使用人脸图像face_detect与面部区域face_gt的IOU值来判定所检测的人脸图像face_detect是否是所需要的人脸图像,在满足IOU值条件之后,使用人脸图像face_detect的图像边界对landmark进行归一化,以便算法更快收敛。更进一步的,对所得到的人脸图像face_detect以及归一化的landmark做水平翻转进行数据增强,并将翻转前后的人脸图像和landmark分别存储,以备模型训练调用。
3、增强灰度:对扩充后的人脸图像训练数据进行灰度转换以获得人脸灰度图像训练数据。
在人脸关键点模型实际使用的过程中,如用户佩戴反光较强的眼镜,由于训练集中并没有类似的训练数据,模型在这种场景的泛化性能较差。为此,本发明将训练图片转换至灰度空间,并对转换后的灰度图进行亮度增强,使得训练图片达到跟实际场景中存在较强反光一样的效果,提升模型在这种场景下的泛化能力。
如图3所示,增强灰度包括:
步骤S21、将扩充后的人脸图像训练数据转换至灰度空间,以获取训练图像的灰度图。
步骤S22、对步骤S21所得到的灰度图进行亮度增强,对灰度图的每个像素值乘以大于1的增强系数,之后在0~255范围内对灰度图各像素值进行截断。
步骤S23、使用步骤S22所获得的经过亮度增强的灰度图进行训练,得到图像算法模型,该图像算法模型在生产环境上线后,进行人脸关键点预测时,先依照图3流程将图像转换至灰度空间,并进行亮度增强,但是此时使用的增强系数应小于训练时所使用的增强系数。通过该增强方法的使用,用户在佩戴反光较强的眼镜时,反光区域被处理成白色背景,使得眼睛轮廓更好暴露处理,算法预测干扰因素降低,从而提升泛化能力。
4、模型训练过程中考虑标注误差的训练损失和丢弃部分简单样本:对每个人脸关键点产生的损失设置不同的损失权重,将人脸灰度图像训练数据、每个人脸关键点对应的损失权重以及人脸灰度图像对应的标注人脸关键点代入骨干网络模型中进行训练,在训练过程中,基于骨干网络模型训练出的各个人脸关键点与对应标注的人脸关键点计算出误差值,基于误差值设定阈值,将人脸灰度图像训练数据对应的值与阈值进行比较,若低于则丢弃该人脸灰度图像训练数据,否则保留该人脸灰度图像训练数据进行模型训练。
训练数据所标注的关键点在产生损失时,对每个关键点产生的损失设置不同的权重,从而降低标注误差对训练的干扰。
丢弃简单样本:在离线进行数据增强的情况下,每个训练分组batch中会存在一个用户人脸的不同角度的样本同时参与训练的情况。另一方面,训练数据中由于人脸姿态及遮挡和光照的不同,训练难度也不相同,即简单样本的数量远远大于困难样本的数量,从而导致困难样本所产生的损失被大量的简单样本所稀释,从而导致困难样本训练不足。在训练的每个分组batch中丢弃部分简单样本,从而保留困难样本的梯度。
如图4所示,步骤S1、本发明所设计的损失函数一方面考虑面部不同位置关键点的标注误差的不同,另一方面,用于解决训练过程中困难样本所产生的损失(此处为L2损失)被简单样本所稀释而导致的困难样本未被充分训练的问题。首先,计算人脸面部各关键点所产生的推理损失:
Figure BDA0002620429430000071
式(1)中,N为人脸面部关键点数量,lm为人脸灰度图像训练数据中一个分组batch中第m个样本的损失,pn为神经网络推断出的第n个关键点的坐标,
Figure BDA0002620429430000081
为经过数据增强处理的标注点坐标,二者的L2距离即为推理误差,wn为加权系数,不同位置面部关键点设置不同的加权系数,相对于脸部轮廓的关键点,眉毛、眼睛、鼻子、嘴巴上关键点更容易标注准确,因此赋予更大的加权系数。按照公式(1)计算出一个分组batch中各样本所产生的损失。
步骤S2、计算简单样本和困难样本划分阈值;
Figure BDA0002620429430000082
式(2)中,M为分组batch大小,α为调节系数,公式首先计算整个batch所产生的损失均值,将该均值乘以α得到划分阈值thod,低于该阈值为简单样本,高于该阈值为困难样本,α越小,则简单样本数量越少。
步骤S3、使用threshVal筛选剔除简单样本;
Figure BDA0002620429430000083
式(3)中,maskm为样本难易程度标识,0:简单样本,1:困难样本,若该样本为简单样本,则忽略该样本,使用所有困难样本,组成新分组batch2。
步骤S4、计算新分组batch2的样本数量;
Figure BDA0002620429430000084
式(4)中,BS即为batch2的样本数量。
步骤S5、计算batch2的平均损失,以进行反向传播;
Figure BDA0002620429430000091
式(5)中,L即为该次训练batch反向传播所使用的平均损失。
本发明通过设计轻量化的骨干网络、离线数据角度增强、考虑标注误差的加权损失以及丢弃简单训练样本的训练方法,实现了一种轻量且高精度的人脸关键点定位方法。同时,为了保证所训练的模型在实际使用过程中的特殊场景(如佩戴具有较强反光镜片的眼镜等)的泛化性,本发明提出了将训练数据转换至灰度空间并进行亮度增强进行训练的方法。
虽然以上描述了本发明的具体实施方式,但是本领域的技术人员应当理解,这些仅是举例说明,本发明的保护范围是由所附权利要求书限定的。本领域的技术人员在不背离本发明的原理和实质的前提下,可以对这些实施方式做出多种变更或修改,但这些变更和修改均落入本发明的保护范围。

Claims (6)

1.一种基于深度学习的人脸关键点定位方法,其特征在于,其包括以下步骤:
构建骨干网络模型:采用普通卷积层外加堆叠数个Mobilenet V2 block构建骨干网络模型以实现模型轻量化,并在骨干网络模型中采用高阶特征结合低阶特征的方式进行人脸关键点位置训练和预测;
增强离线数据:在-30°至+30°内每隔3度对采集到的原始人脸图像训练数据进行一次旋转,再进行一次水平翻转,从而得到扩充后的人脸图像训练数据;
增强灰度:对扩充后的人脸图像训练数据进行灰度转换以获得人脸灰度图像训练数据;
模型训练过程中考虑标注误差的训练损失和丢弃部分简单样本:对每个人脸关键点产生的损失设置不同的损失权重,将人脸灰度图像训练数据、每个人脸关键点对应的损失权重以及人脸灰度图像对应的标注人脸关键点代入骨干网络模型中进行训练,在训练过程中,基于骨干网络模型训练出的各个人脸关键点与对应标注的人脸关键点计算出误差值,基于误差值设定阈值,将人脸灰度图像训练数据对应的值与阈值进行比较,若低于则丢弃该人脸灰度图像训练数据,否则保留该人脸灰度图像训练数据进行模型训练。
2.如权利要求1所述的基于深度学习的人脸关键点定位方法,其特征在于,构建骨干网络模型:骨干网络模型依次包括普通卷积层和4个Mobilenet V2 Block,在骨干网络模型的尾部,通过长宽为7的卷积核将特征图处理成1×1的高阶特征值,将最后一层Mobilenet V2Block和卷积核特征图进行全局平均池化,分别得到相应低阶且维度为1×1的特征值,并与高阶特征值进行拼接,然后由一层全连接层进行人脸68个关键点的位置训练和预测。
3.如权利要求1所述的基于深度学习的人脸关键点定位方法,其特征在于,增强离线数据:在-30°至+30°内每隔3度对原始人脸图像训练数据进行一次旋转,每次旋转得到旋转之后的landmark、以及该次旋转所对应的旋转矩阵M,由landmark计算面部区域face_gt,使用旋转矩阵M对原始人脸图像进行仿射变换,得到变换后的图像ImgT,使用人脸检测算法,从图像ImgT中检测人脸图像face_detect,使用人脸图像face_detect与面部区域face_gt的IOU值来判定所检测的人脸图像face_detect是否是所需要的人脸图像,在满足IOU值条件之后,使用人脸图像face_detect的图像边界对landmark进行归一化,以便算法更快收敛。
4.如权利要求3所述的基于深度学习的人脸关键点定位方法,其特征在于,对所得到的人脸图像face_detect以及归一化的landmark做水平翻转进行数据增强,并将翻转前后的人脸图像和landmark分别存储,以备模型训练调用。
5.如权利要求1所述的基于深度学习的人脸关键点定位方法,其特征在于,增强灰度:步骤S21、将扩充后的人脸图像训练数据转换至灰度空间,以获取训练图像的灰度图;
步骤S22、对步骤S21所得到的灰度图进行亮度增强,对灰度图的每个像素值乘以大于1的增强系数,之后在0~255范围内对灰度图各像素值进行截断;
步骤S23、使用步骤S22所获得的经过亮度增强的灰度图进行训练,得到图像算法模型,该图像算法模型在生产环境上线后,进行人脸关键点预测时,先将图像转换至灰度空间,并进行亮度增强,但是此时使用的增强系数应小于训练时所使用的增强系数。
6.如权利要求1所述的基于深度学习的人脸关键点定位方法,其特征在于,步骤S1、计算人脸面部各关键点所产生的推理损失:
Figure FDA0002620429420000031
式(1)中,N为人脸面部关键点数量,lm为人脸灰度图像训练数据中一个分组batch中第m个样本的损失,pn为神经网络推断出的第n个关键点的坐标,
Figure FDA0002620429420000035
为经过数据增强处理的标注点坐标,二者的L2距离即为推理误差,wn为加权系数,不同位置面部关键点设置不同的加权系数,按照公式(1)计算出一个分组batch中各样本所产生的损失;
步骤S2、计算简单样本和困难样本划分阈值;
Figure FDA0002620429420000032
式(2)中,M为分组batch大小,α为调节系数,公式首先计算整个batch所产生的损失均值,将该均值乘以α得到划分阈值thod,低于该阈值为简单样本,高于该阈值为困难样本,α越小,则简单样本数量越少;
步骤S3、使用threshVal筛选剔除简单样本;
Figure FDA0002620429420000033
式(3)中,maskm为样本难易程度标识,0:简单样本,1:困难样本,若该样本为简单样本,则忽略该样本,使用所有困难样本,组成新分组batch2;
步骤S4、计算新分组batch2的样本数量;
Figure FDA0002620429420000034
式(4)中,BS即为batch2的样本数量;
步骤S5、计算batch2的平均损失,以进行反向传播;
Figure FDA0002620429420000041
式(5)中,L即为该次训练batch反向传播所使用的平均损失。
CN202010781557.9A 2020-08-06 2020-08-06 一种基于深度学习的人脸关键点定位方法 Active CN112036253B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010781557.9A CN112036253B (zh) 2020-08-06 2020-08-06 一种基于深度学习的人脸关键点定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010781557.9A CN112036253B (zh) 2020-08-06 2020-08-06 一种基于深度学习的人脸关键点定位方法

Publications (2)

Publication Number Publication Date
CN112036253A true CN112036253A (zh) 2020-12-04
CN112036253B CN112036253B (zh) 2024-05-10

Family

ID=73582566

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010781557.9A Active CN112036253B (zh) 2020-08-06 2020-08-06 一种基于深度学习的人脸关键点定位方法

Country Status (1)

Country Link
CN (1) CN112036253B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112991280A (zh) * 2021-03-03 2021-06-18 望知科技(深圳)有限公司 视觉检测方法、系统及电子设备
CN115100714A (zh) * 2022-06-27 2022-09-23 平安银行股份有限公司 基于人脸图像的活体检测方法、装置及服务器

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109359603A (zh) * 2018-10-22 2019-02-19 东南大学 一种基于级联卷积神经网络的车辆驾驶员人脸检测方法
CN109359575A (zh) * 2018-09-30 2019-02-19 腾讯科技(深圳)有限公司 人脸检测方法、业务处理方法、装置、终端及介质
CN109919048A (zh) * 2019-02-21 2019-06-21 北京以萨技术股份有限公司 一种基于级联MobileNet-V2实现人脸关键点检测的方法
CN111160269A (zh) * 2019-12-30 2020-05-15 广东工业大学 一种人脸关键点检测方法及装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109359575A (zh) * 2018-09-30 2019-02-19 腾讯科技(深圳)有限公司 人脸检测方法、业务处理方法、装置、终端及介质
CN109359603A (zh) * 2018-10-22 2019-02-19 东南大学 一种基于级联卷积神经网络的车辆驾驶员人脸检测方法
CN109919048A (zh) * 2019-02-21 2019-06-21 北京以萨技术股份有限公司 一种基于级联MobileNet-V2实现人脸关键点检测的方法
CN111160269A (zh) * 2019-12-30 2020-05-15 广东工业大学 一种人脸关键点检测方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
FRERK SAXEN 等: "FACE ATTRIBUTE DETECTION WITH MOBILENETV2 AND NASNRT-MOBILE", 《 2019 11TH INTERNATIONAL SYMPOSIUM ON IMAGE AND SIGNAL PROCESSING AND ANALYSIS (ISPA)》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112991280A (zh) * 2021-03-03 2021-06-18 望知科技(深圳)有限公司 视觉检测方法、系统及电子设备
CN112991280B (zh) * 2021-03-03 2024-05-28 望知科技(深圳)有限公司 视觉检测方法、系统及电子设备
CN115100714A (zh) * 2022-06-27 2022-09-23 平安银行股份有限公司 基于人脸图像的活体检测方法、装置及服务器

Also Published As

Publication number Publication date
CN112036253B (zh) 2024-05-10

Similar Documents

Publication Publication Date Title
US11878433B2 (en) Method for detecting grasping position of robot in grasping object
WO2021164228A1 (zh) 一种图像数据的增广策略选取方法及系统
CN107229904B (zh) 一种基于深度学习的目标检测与识别方法
CN110543846B (zh) 一种基于生成对抗网络的多姿态人脸图像正面化方法
CN111160269A (zh) 一种人脸关键点检测方法及装置
CN108921057B (zh) 基于卷积神经网络的对虾形态测量方法、介质、终端设备及装置
CN110287846A (zh) 一种基于注意力机制的人脸关键点检测方法
CN111723691B (zh) 一种三维人脸识别方法、装置、电子设备及存储介质
US8811744B2 (en) Method for determining frontal face pose
CN110837870A (zh) 基于主动学习的声呐图像目标识别方法
CN112200057B (zh) 人脸活体检测方法、装置、电子设备及存储介质
CN111862201A (zh) 一种基于深度学习的空间非合作目标相对位姿估计方法
CN112001859A (zh) 一种人脸图像的修复方法及系统
CN109409210B (zh) 一种基于ssd框架的人脸检测方法及系统
CN112036253A (zh) 一种基于深度学习的人脸关键点定位方法
CN111798373A (zh) 一种基于局部平面假设及六自由度位姿优化的快速无人机图像拼接方法
CN113888461A (zh) 基于深度学习的小五金件缺陷检测方法、系统及设备
CN112200056A (zh) 人脸活体检测方法、装置、电子设备及存储介质
CN111882555B (zh) 基于深度学习的网衣检测方法、装置、设备及存储介质
CN116883588A (zh) 一种大场景下的三维点云快速稠密重建方法及系统
CN110598647B (zh) 一种基于图像识别的头部姿态识别方法
CN115797846A (zh) 一种风力发电叶片区块缺陷比对方法、装置及电子设备
CN116091823A (zh) 一种基于快速分组残差模块的单特征无锚框目标检测方法
JP2011060289A (ja) 顔画像合成方法及びシステム
CN113344796A (zh) 一种图像处理方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant