CN112036253B - 一种基于深度学习的人脸关键点定位方法 - Google Patents
一种基于深度学习的人脸关键点定位方法 Download PDFInfo
- Publication number
- CN112036253B CN112036253B CN202010781557.9A CN202010781557A CN112036253B CN 112036253 B CN112036253 B CN 112036253B CN 202010781557 A CN202010781557 A CN 202010781557A CN 112036253 B CN112036253 B CN 112036253B
- Authority
- CN
- China
- Prior art keywords
- face
- image
- training
- training data
- gray
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 30
- 238000013135 deep learning Methods 0.000 title claims abstract description 12
- 238000012549 training Methods 0.000 claims abstract description 100
- 230000008569 process Effects 0.000 claims abstract description 14
- 238000002372 labelling Methods 0.000 claims description 9
- 239000011159 matrix material Substances 0.000 claims description 6
- 230000002708 enhancing effect Effects 0.000 claims description 5
- 238000001514 detection method Methods 0.000 claims description 4
- 230000001815 facial effect Effects 0.000 claims description 4
- 238000012545 processing Methods 0.000 claims description 4
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims description 3
- 238000013528 artificial neural network Methods 0.000 claims description 3
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 238000004519 manufacturing process Methods 0.000 claims description 3
- 238000011176 pooling Methods 0.000 claims description 3
- 238000012216 screening Methods 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims description 3
- 230000004807 localization Effects 0.000 claims 1
- 239000011521 glass Substances 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Human Computer Interaction (AREA)
- Life Sciences & Earth Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
基于深度学习的人脸关键点定位方法包括:采用普通卷积层外加堆叠数个Mobilenet V2 block构建骨干网络模型以实现模型轻量化;在‑30°至+30°内每隔3度对采集到的原始人脸图像训练数据进行一次旋转,再进行一次水平翻转,得到扩充后的人脸图像训练数据;对扩充后人脸图像训练数据灰度转换以获得人脸灰度图像训练数据;将人脸灰度图像训练数据、每个人脸关键点对应损失权重及标注人脸关键点代入模型中进行训练,在训练过程中,基于模型训练出的各个人脸关键点与对应标注的人脸关键点计算误差值,基于误差值设定阈值,将人脸灰度图像训练数据对应的值与阈值进行比较,若低于则丢弃该人脸灰度图像训练数据,否则保留。
Description
技术领域
本发明涉及人脸识别技术领域,特别是涉及一种基于深度学习的人脸关键点定位方法。
背景技术
人脸关键点定位是人脸识别领域的一个重要研究方向,用于人脸姿态估计,配合式活体检测。目前人脸关键点定位算法为了实现较高的定位精度,通常采用复杂的网络结构,或在训练数据中引入额外的人工标注辅助训练,或采用辅助算法进行训练数据增强。这就导致了相关算法实施过程投入较大,同时所得到的算法模型亦较为臃肿,无法在移动端等对轻量化要求较为苛刻的场景中使用。另一方面,训练数据中的标注误差也导致了模型精度的提升空间。
发明内容
本发明针对现有技术存在的问题和不足,提供一种基于深度学习的人脸关键点定位方法。
本发明是通过下述技术方案来解决上述技术问题的:
本发明提供一种基于深度学习的人脸关键点定位方法,其特点在于,其包括以下步骤:
构建骨干网络模型:采用普通卷积层外加堆叠数个Mobilenet V2 block构建骨干网络模型以实现模型轻量化,并在骨干网络模型中采用高阶特征结合低阶特征的方式进行人脸关键点位置训练和预测;
增强离线数据:在-30°至+30°内每隔3度对采集到的原始人脸图像训练数据进行一次旋转,再进行一次水平翻转,从而得到扩充后的人脸图像训练数据;
增强灰度:对扩充后的人脸图像训练数据进行灰度转换以获得人脸灰度图像训练数据;
模型训练过程中考虑标注误差的训练损失和丢弃部分简单样本:对每个人脸关键点产生的损失设置不同的损失权重,将人脸灰度图像训练数据、每个人脸关键点对应的损失权重以及人脸灰度图像对应的标注人脸关键点代入骨干网络模型中进行训练,在训练过程中,基于骨干网络模型训练出的各个人脸关键点与对应标注的人脸关键点计算出误差值,基于误差值设定阈值,将人脸灰度图像训练数据对应的值与阈值进行比较,若低于则丢弃该人脸灰度图像训练数据,否则保留该人脸灰度图像训练数据进行模型训练。
较佳地,构建骨干网络模型:骨干网络模型依次包括普通卷积层和4个MobilenetV2 Block,在骨干网络模型的尾部,通过长宽为7的卷积核将特征图处理成1×1的高阶特征值,将最后一层MobilenetV2 Block和卷积核特征图进行全局平均池化,分别得到相应低阶且维度为1×1的特征值,并与高阶特征值进行拼接,然后由一层全连接层进行人脸68个关键点的位置训练和预测。
较佳地,增强离线数据:在-30°至+30°内每隔3度对原始人脸图像训练数据进行一次旋转,每次旋转得到旋转之后的landmark、以及该次旋转所对应的旋转矩阵M,由landmark计算面部区域face_gt,使用旋转矩阵M对原始人脸图像进行仿射变换,得到变换后的图像ImgT,使用人脸检测算法,从图像ImgT中检测人脸图像face_detect,使用人脸图像face_detect与面部区域face_gt的IOU值来判定所检测的人脸图像face_detect是否是所需要的人脸图像,在满足IOU值条件之后,使用人脸图像face_detect的图像边界对landmark进行归一化,以便算法更快收敛。
较佳地,对所得到的人脸图像face_detect以及归一化的landmark做水平翻转进行数据增强,并将翻转前后的人脸图像和landmark分别存储,以备模型训练调用。
较佳地,增强灰度:步骤S21、将扩充后的人脸图像训练数据转换至灰度空间,以获取训练图像的灰度图;
步骤S22、对步骤S21所得到的灰度图进行亮度增强,对灰度图的每个像素值乘以大于1的增强系数,之后在0~255范围内对灰度图各像素值进行截断;
步骤S23、使用步骤S22所获得的经过亮度增强的灰度图进行训练,得到图像算法模型,该图像算法模型在生产环境上线后,进行人脸关键点预测时,先将图像转换至灰度空间,并进行亮度增强,但是此时使用的增强系数应小于训练时所使用的增强系数。
较佳地,步骤S1、计算人脸面部各关键点所产生的推理损失:
式(1)中,N为人脸面部关键点数量,lm为人脸灰度图像训练数据中一个分组batch中第m个样本的损失,pn为神经网络推断出的第n个关键点的坐标,为经过数据增强处理的标注点坐标,二者的L2距离即为推理误差,wn为加权系数,不同位置面部关键点设置不同的加权系数,按照公式(1)计算出一个分组batch中各样本所产生的损失;
步骤S2、计算简单样本和困难样本划分阈值;
式(2)中,M为分组batch大小,α为调节系数,公式首先计算整个batch所产生的损失均值,将该均值乘以α得到划分阈值thod,低于该阈值为简单样本,高于该阈值为困难样本,α越小,则简单样本数量越少;
步骤S3、使用threshVal筛选剔除简单样本;
式(3)中,maskm为样本难易程度标识,0:简单样本,1:困难样本,若该样本为简单样本,则忽略该样本,使用所有困难样本,组成新分组batch2;
步骤S4、计算新分组batch2的样本数量;
式(4)中,BS即为batch2的样本数量;
步骤S5、计算batch2的平均损失,以进行反向传播;
式(5)中,L即为该次训练batch反向传播所使用的平均损失。
在符合本领域常识的基础上,上述各优选条件,可任意组合,即得本发明各较佳实例。
本发明的积极进步效果在于:
本发明轻量化的设计,进一步降低了模型的大小与计算量,更适用于移动端的应用场景。模型对人脸关键点定位的准确度也大幅提升,完全满足移动端进行人脸姿态估计,以及配合式活体检测的需求。在实际应用的过程中,对光线强度引起的干扰具有较高的鲁棒性。
附图说明
图1为本发明实施例的骨干网络结构图。
图2为本发明实施例的离线数据增强流程图。
图3为本发明实施例的灰度增强处理流程图。
图4为本发明实施例的样本损失处理流程图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
本实施例提供一种基于深度学习的人脸关键点定位方法,其包括:
1、构建骨干网络模型:采用普通卷积层外加堆叠数个MobilenetV2 block构建骨干网络模型以实现模型轻量化,并在骨干网络模型中采用高阶特征结合低阶特征的方式进行人脸关键点位置训练和预测。
具体地,如图1所示,骨干网络模型依次包括普通卷积层(Conv 3*3)和4个MobilenetV2 Block,在骨干网络模型的尾部,通过长宽为7的卷积核(Conv 3*3)将特征图处理成1×1的高阶特征值(Conv 7*7),便于与低阶特征进行融合。将最后一层MobilenetV2Block(Block 14*14)和卷积核(Conv 3*3)特征图进行全局平均池化,分别得到相应低阶且维度为1×1的特征值(Avg),并与高阶特征值进行拼接,然后由一层全连接层(FC 136)进行人脸68个关键点的位置训练和预测。
2、增强离线数据:在-30°至+30°内每隔3度对采集到的原始人脸图像训练数据进行一次旋转,再进行一次水平翻转,从而得到扩充后的人脸图像训练数据。
如图2所示,在-30°至+30°内每隔3度对原始人脸图像训练数据进行一次旋转,每次旋转得到旋转之后的landmark、以及该次旋转所对应的旋转矩阵M,由landmark计算面部区域face_gt,使用旋转矩阵M对原始人脸图像进行仿射变换,得到变换后的图像ImgT,使用人脸检测算法(如MTCNN等),从图像ImgT中检测人脸图像face_detect。由于单张图片中可能包含多个人脸图像,因此需要,使用人脸图像face_detect与面部区域face_gt的IOU值来判定所检测的人脸图像face_detect是否是所需要的人脸图像,在满足IOU值条件之后,使用人脸图像face_detect的图像边界对landmark进行归一化,以便算法更快收敛。更进一步的,对所得到的人脸图像face_detect以及归一化的landmark做水平翻转进行数据增强,并将翻转前后的人脸图像和landmark分别存储,以备模型训练调用。
3、增强灰度:对扩充后的人脸图像训练数据进行灰度转换以获得人脸灰度图像训练数据。
在人脸关键点模型实际使用的过程中,如用户佩戴反光较强的眼镜,由于训练集中并没有类似的训练数据,模型在这种场景的泛化性能较差。为此,本发明将训练图片转换至灰度空间,并对转换后的灰度图进行亮度增强,使得训练图片达到跟实际场景中存在较强反光一样的效果,提升模型在这种场景下的泛化能力。
如图3所示,增强灰度包括:
步骤S21、将扩充后的人脸图像训练数据转换至灰度空间,以获取训练图像的灰度图。
步骤S22、对步骤S21所得到的灰度图进行亮度增强,对灰度图的每个像素值乘以大于1的增强系数,之后在0~255范围内对灰度图各像素值进行截断。
步骤S23、使用步骤S22所获得的经过亮度增强的灰度图进行训练,得到图像算法模型,该图像算法模型在生产环境上线后,进行人脸关键点预测时,先依照图3流程将图像转换至灰度空间,并进行亮度增强,但是此时使用的增强系数应小于训练时所使用的增强系数。通过该增强方法的使用,用户在佩戴反光较强的眼镜时,反光区域被处理成白色背景,使得眼睛轮廓更好暴露处理,算法预测干扰因素降低,从而提升泛化能力。
4、模型训练过程中考虑标注误差的训练损失和丢弃部分简单样本:对每个人脸关键点产生的损失设置不同的损失权重,将人脸灰度图像训练数据、每个人脸关键点对应的损失权重以及人脸灰度图像对应的标注人脸关键点代入骨干网络模型中进行训练,在训练过程中,基于骨干网络模型训练出的各个人脸关键点与对应标注的人脸关键点计算出误差值,基于误差值设定阈值,将人脸灰度图像训练数据对应的值与阈值进行比较,若低于则丢弃该人脸灰度图像训练数据,否则保留该人脸灰度图像训练数据进行模型训练。
训练数据所标注的关键点在产生损失时,对每个关键点产生的损失设置不同的权重,从而降低标注误差对训练的干扰。
丢弃简单样本:在离线进行数据增强的情况下,每个训练分组batch中会存在一个用户人脸的不同角度的样本同时参与训练的情况。另一方面,训练数据中由于人脸姿态及遮挡和光照的不同,训练难度也不相同,即简单样本的数量远远大于困难样本的数量,从而导致困难样本所产生的损失被大量的简单样本所稀释,从而导致困难样本训练不足。在训练的每个分组batch中丢弃部分简单样本,从而保留困难样本的梯度。
如图4所示,步骤S1、本发明所设计的损失函数一方面考虑面部不同位置关键点的标注误差的不同,另一方面,用于解决训练过程中困难样本所产生的损失(此处为L2损失)被简单样本所稀释而导致的困难样本未被充分训练的问题。首先,计算人脸面部各关键点所产生的推理损失:
式(1)中,N为人脸面部关键点数量,lm为人脸灰度图像训练数据中一个分组batch中第m个样本的损失,pn为神经网络推断出的第n个关键点的坐标,为经过数据增强处理的标注点坐标,二者的L2距离即为推理误差,wn为加权系数,不同位置面部关键点设置不同的加权系数,相对于脸部轮廓的关键点,眉毛、眼睛、鼻子、嘴巴上关键点更容易标注准确,因此赋予更大的加权系数。按照公式(1)计算出一个分组batch中各样本所产生的损失。
步骤S2、计算简单样本和困难样本划分阈值;
式(2)中,M为分组batch大小,α为调节系数,公式首先计算整个batch所产生的损失均值,将该均值乘以α得到划分阈值thod,低于该阈值为简单样本,高于该阈值为困难样本,α越小,则简单样本数量越少。
步骤S3、使用threshVal筛选剔除简单样本;
式(3)中,maskm为样本难易程度标识,0:简单样本,1:困难样本,若该样本为简单样本,则忽略该样本,使用所有困难样本,组成新分组batch2。
步骤S4、计算新分组batch2的样本数量;
式(4)中,BS即为batch2的样本数量。
步骤S5、计算batch2的平均损失,以进行反向传播;
式(5)中,L即为该次训练batch反向传播所使用的平均损失。
本发明通过设计轻量化的骨干网络、离线数据角度增强、考虑标注误差的加权损失以及丢弃简单训练样本的训练方法,实现了一种轻量且高精度的人脸关键点定位方法。同时,为了保证所训练的模型在实际使用过程中的特殊场景(如佩戴具有较强反光镜片的眼镜等)的泛化性,本发明提出了将训练数据转换至灰度空间并进行亮度增强进行训练的方法。
虽然以上描述了本发明的具体实施方式,但是本领域的技术人员应当理解,这些仅是举例说明,本发明的保护范围是由所附权利要求书限定的。本领域的技术人员在不背离本发明的原理和实质的前提下,可以对这些实施方式做出多种变更或修改,但这些变更和修改均落入本发明的保护范围。
Claims (5)
1.一种基于深度学习的人脸关键点定位方法,其特征在于,其包括以下步骤:
构建骨干网络模型:采用普通卷积层外加堆叠数个Mobilenet V2 block构建骨干网络模型以实现模型轻量化,并在骨干网络模型中采用高阶特征结合低阶特征的方式进行人脸关键点位置训练和预测;
增强离线数据:在-30°至+30°内每隔3度对采集到的原始人脸图像训练数据进行一次旋转,再进行一次水平翻转,从而得到扩充后的人脸图像训练数据;
增强灰度:对扩充后的人脸图像训练数据进行灰度转换以获得人脸灰度图像训练数据;
模型训练过程中考虑标注误差的训练损失和丢弃部分简单样本:对每个人脸关键点产生的损失设置不同的损失权重,将人脸灰度图像训练数据、每个人脸关键点对应的损失权重以及人脸灰度图像对应的标注人脸关键点代入骨干网络模型中进行训练,在训练过程中,基于骨干网络模型训练出的各个人脸关键点与对应标注的人脸关键点计算出误差值,基于误差值设定阈值,将人脸灰度图像训练数据对应的值与阈值进行比较,若低于则丢弃该人脸灰度图像训练数据,否则保留该人脸灰度图像训练数据进行模型训练;
所述模型训练过程中考虑标注误差的训练损失和丢弃部分简单样本具体包括:
步骤S1、计算人脸面部各关键点所产生的推理损失:
式(1)中,N为人脸面部关键点数量,lm为人脸灰度图像训练数据中一个分组batch中第m个样本的损失,pn为神经网络推断出的第n个关键点的坐标,为经过数据增强处理的标注点坐标,二者的L2距离即为推理误差,wn为加权系数,不同位置面部关键点设置不同的加权系数,按照公式(1)计算出一个分组batch中各样本所产生的损失;
步骤S2、计算简单样本和困难样本划分阈值;
式(2)中,M为分组batch大小,α为调节系数,公式首先计算整个batch所产生的损失均值,将该均值乘以α得到划分阈值threshVal,低于该阈值为简单样本,高于该阈值为困难样本,α越小,则简单样本数量越少;
步骤S3、使用threshVal筛选剔除简单样本;
式(3)中,maskm为样本难易程度标识,0:简单样本,1:困难样本,若该样本为简单样本,则忽略该样本,使用所有困难样本,组成新分组batch2;
步骤S4、计算新分组batch2的样本数量;
式(4)中,BS即为batch2的样本数量;
步骤S5、计算batch2的平均损失,以进行反向传播;
式(5)中,L即为该次训练batch反向传播所使用的平均损失。
2.如权利要求1所述的基于深度学习的人脸关键点定位方法,其特征在于,构建骨干网络模型:骨干网络模型依次包括普通卷积层和4个MobilenetV2 Block,在骨干网络模型的尾部,通过长宽为7的卷积核将特征图处理成1×1的高阶特征值,将最后一层MobilenetV2Block和卷积核特征图进行全局平均池化,分别得到相应低阶且维度为1×1的特征值,并与高阶特征值进行拼接,然后由一层全连接层进行人脸68个关键点的位置训练和预测。
3.如权利要求1所述的基于深度学习的人脸关键点定位方法,其特征在于,增强离线数据:在-30°至+30°内每隔3度对原始人脸图像训练数据进行一次旋转,每次旋转得到旋转之后的landmark、以及该次旋转所对应的旋转矩阵M,由landmark计算面部区域face_gt,使用旋转矩阵M对原始人脸图像进行仿射变换,得到变换后的图像ImgT,使用人脸检测算法,从图像ImgT中检测人脸图像face_detect,使用人脸图像face_detect与面部区域face_gt的IOU值来判定所检测的人脸图像face_detect是否是所需要的人脸图像,在满足IOU值条件之后,使用人脸图像face_detect的图像边界对
landmark进行归一化,以便算法更快收敛。
4.如权利要求3所述的基于深度学习的人脸关键点定位方法,其特征在于,对所得到的人脸图像face_detect以及归一化的landmark做水平翻转进行数据增强,并将翻转前后的人脸图像和landmark分别存储,以备模型训练调用。
5.如权利要求1所述的基于深度学习的人脸关键点定位方法,其特征在于,增强灰度:步骤S21、将扩充后的人脸图像训练数据转换至灰度空间,以获取训练图像的灰度图;
步骤S22、对步骤S21所得到的灰度图进行亮度增强,对灰度图的每个像素值乘以大于1的增强系数,之后在0~255范围内对灰度图各像素值进行截断;
步骤S23、使用步骤S22所获得的经过亮度增强的灰度图进行训练,得到图像算法模型,该图像算法模型在生产环境上线后,进行人脸关键点预测时,先将图像转换至灰度空间,并进行亮度增强,但是此时使用的增强系数小于训练时所使用的增强系数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010781557.9A CN112036253B (zh) | 2020-08-06 | 2020-08-06 | 一种基于深度学习的人脸关键点定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010781557.9A CN112036253B (zh) | 2020-08-06 | 2020-08-06 | 一种基于深度学习的人脸关键点定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112036253A CN112036253A (zh) | 2020-12-04 |
CN112036253B true CN112036253B (zh) | 2024-05-10 |
Family
ID=73582566
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010781557.9A Active CN112036253B (zh) | 2020-08-06 | 2020-08-06 | 一种基于深度学习的人脸关键点定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112036253B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112991280B (zh) * | 2021-03-03 | 2024-05-28 | 望知科技(深圳)有限公司 | 视觉检测方法、系统及电子设备 |
CN115100714A (zh) * | 2022-06-27 | 2022-09-23 | 平安银行股份有限公司 | 基于人脸图像的活体检测方法、装置及服务器 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109359575A (zh) * | 2018-09-30 | 2019-02-19 | 腾讯科技(深圳)有限公司 | 人脸检测方法、业务处理方法、装置、终端及介质 |
CN109359603A (zh) * | 2018-10-22 | 2019-02-19 | 东南大学 | 一种基于级联卷积神经网络的车辆驾驶员人脸检测方法 |
CN109919048A (zh) * | 2019-02-21 | 2019-06-21 | 北京以萨技术股份有限公司 | 一种基于级联MobileNet-V2实现人脸关键点检测的方法 |
CN111160269A (zh) * | 2019-12-30 | 2020-05-15 | 广东工业大学 | 一种人脸关键点检测方法及装置 |
-
2020
- 2020-08-06 CN CN202010781557.9A patent/CN112036253B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109359575A (zh) * | 2018-09-30 | 2019-02-19 | 腾讯科技(深圳)有限公司 | 人脸检测方法、业务处理方法、装置、终端及介质 |
CN109359603A (zh) * | 2018-10-22 | 2019-02-19 | 东南大学 | 一种基于级联卷积神经网络的车辆驾驶员人脸检测方法 |
CN109919048A (zh) * | 2019-02-21 | 2019-06-21 | 北京以萨技术股份有限公司 | 一种基于级联MobileNet-V2实现人脸关键点检测的方法 |
CN111160269A (zh) * | 2019-12-30 | 2020-05-15 | 广东工业大学 | 一种人脸关键点检测方法及装置 |
Non-Patent Citations (1)
Title |
---|
FACE ATTRIBUTE DETECTION WITH MOBILENETV2 AND NASNRT-MOBILE;Frerk Saxen 等;《 2019 11th International Symposium on Image and Signal Processing and Analysis (ISPA)》;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN112036253A (zh) | 2020-12-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11878433B2 (en) | Method for detecting grasping position of robot in grasping object | |
CN107229904B (zh) | 一种基于深度学习的目标检测与识别方法 | |
US11488308B2 (en) | Three-dimensional object detection method and system based on weighted channel features of a point cloud | |
CN110287846A (zh) | 一种基于注意力机制的人脸关键点检测方法 | |
CN112069874B (zh) | 胚胎光镜图像中细胞的识别方法及系统、设备及存储介质 | |
CN111160269A (zh) | 一种人脸关键点检测方法及装置 | |
CN108921057B (zh) | 基于卷积神经网络的对虾形态测量方法、介质、终端设备及装置 | |
CN110032925B (zh) | 一种基于改进胶囊网络与算法的手势图像分割与识别方法 | |
CN106951840A (zh) | 一种人脸特征点检测方法 | |
CN112036253B (zh) | 一种基于深度学习的人脸关键点定位方法 | |
CN112200057B (zh) | 人脸活体检测方法、装置、电子设备及存储介质 | |
CN109409210B (zh) | 一种基于ssd框架的人脸检测方法及系统 | |
CN110046574A (zh) | 基于深度学习的安全帽佩戴识别方法及设备 | |
CN110895802A (zh) | 一种图像处理方法及装置 | |
CN111260655B (zh) | 基于深度神经网络模型的图像生成方法与装置 | |
CN111882555B (zh) | 基于深度学习的网衣检测方法、装置、设备及存储介质 | |
CN116229205A (zh) | 基于小样本特征迁移的口红产品表面缺陷数据增广方法 | |
CN112101185B (zh) | 一种训练皱纹检测模型的方法、电子设备及存储介质 | |
CN116823677B (zh) | 一种图像增强的方法、装置、存储介质及电子设备 | |
JP5111321B2 (ja) | 瞼尤度演算装置、及びプログラム | |
CN117541574A (zh) | 一种基于ai语义分割和图像识别的舌诊检测方法 | |
CN117623031A (zh) | 一种电梯无感控制系统及方法 | |
CN117351957A (zh) | 基于视觉跟踪的唇语图像识别方法和装置 | |
CN110826495A (zh) | 基于面部朝向的身体左右肢体一致性跟踪判别方法及系统 | |
Hosono et al. | Self-supervised deep fisheye image rectification approach using coordinate relations |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |