CN106803084A - 一种基于端到端循环网络的面部特征点定位方法 - Google Patents
一种基于端到端循环网络的面部特征点定位方法 Download PDFInfo
- Publication number
- CN106803084A CN106803084A CN201710120005.1A CN201710120005A CN106803084A CN 106803084 A CN106803084 A CN 106803084A CN 201710120005 A CN201710120005 A CN 201710120005A CN 106803084 A CN106803084 A CN 106803084A
- Authority
- CN
- China
- Prior art keywords
- face
- image
- characteristic
- model
- facial
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/164—Detection; Localisation; Normalisation using holistic features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Molecular Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于端到端循环网络的面部特征点定位方法,包括以下步骤:(1)数据准备阶段、(2)端到端的模型设计阶段、(3)模型训练阶段、(4)模型测试,以得到该人脸的面部特征点定位结果的阶段。本发明将内嵌形状信息的深度特征与循环神经网络配合使用,极大地提高了面部特征点定位的精度。此外,本发明使用继承的神经网络特征,模型计算量将会极大减少,在保持较好的面部特征定位精度的条件下,能够达到超实时的面部特征点定位速度。
Description
技术领域
本发明涉及一种定位方法,尤其涉及一种基于端到端循环网络的面部特征点定位方法。
背景技术
面部特征点定位的主要目标是根据输入的人脸自动定位出面部的关键特征点,比如眼睛、鼻子、嘴巴以及面部轮廓等。该技术广泛应用于人脸识别、表情识别、人脸三维重建以及人脸动画合成等。目前的面部特征点定位方法大多基于深度神经网络框架。主要方法有:
1)基于级联结构或模块划分的由粗到精的面部特征点定位。相关专利:CN105981041A、CN105868769A。其主要技术手段为:利用多级模型级联并以粗到细的方式执行面部特征点定位,逐级精细化面部特征点的位置。问题和缺点:该类方法对大姿态人脸的面部特征点定位不鲁棒,级联或分模块的框架对初始面部特征点的给定较为敏感,一旦初始面部特征点位置离目标位置较远,最终特征点的定位将会离目标有较大偏差;其次,级联的框架在训练过程中比较容易进入较差的局部优化点而导致最终模型性能较差。
2)基于多角度的面部特征点定位方法。相关专利:CN105760836A。其主要技术手段为:将待检测图像输入人脸角度模型进行人脸角度检测,并调用相应角度的面部特征点定位模型进行面部特征点定位。问题和缺点:基于人脸角度的硬分类不一定是最合适面部特征点定位任务的分类方式,而且这种硬分类方法对处于类别边界的样本的面部特征点定位可能不鲁棒。
发明内容
为了解决上述问题中的不足之处,本发明提供了一种基于端到端循环网络的面部特征点定位方法。
为了解决以上技术问题,本发明采用的技术方案是:一种基于端到端循环网络的面部特征点定位方法,包括以下步骤:
(1)数据准备阶段
(1.1)对RGB图像集合中的每一张人脸进行人工面部特征点标注:将所有n个特征点标注记为Sg={Lg_1,Lg_2,…,Lg_n},其中Lg_i=(xg_i,yg_i)表示第i个面部特征点在图像中的坐标;
(1.2)将标注完成的图像集合通过人脸检测器以获得每一张图像中的人脸位置,位置信息为:左上角坐标(x_min,y_min)以及右下角坐标(x_max,y_max);
然后利用左上角以及右下角坐标所形成的矩形区域裁剪出人脸图像,最终获得的N张人脸图像P及其对应的标注Sg,该N个样本组成的集合记为D={(P_1,Sg_1),(P_2,Sg_2),…,(P_N,Sg_N)};
(2)模型设计阶段,端到端的模型设计如下:
(2.1)将整体模型记为M,由两部分组成,分别为深度卷积神经网络A和循环神经网络B,模型输入为人脸图像P,人脸图像边长为d;
(2.2)对输入的人脸图像P,利用深度卷积神经网络A进行特征点向量回归,回归目标为S0={L0_1,L0_2,…,L0_n},其中L0_i=(x0_i,y0_i)表示第i个特征点的在图像上的坐标;
(2.3)取出网络A某个卷积层输出的深度特征图并记为F,其边长记为fd;
(2.4)继承步骤(2.3)中的深度特征图F并嵌入形状信息St={Lt_1,Lt_2,…,Lt_n}(第一次使用的形状信息为S0):以其中一个特征点Lt_i=(xt_i,yt_i)为例,计算该特征点在特征图F处对应的坐标L’t_i=(xt_i*fd/d,yt_i*fd/d),然后在特征图F上以L’t_i为中心获取区域大小为k*k的特征块,并将L’t_1,L’t_2,…,L’t_n对应的n个特征块按列或按行拼接为一个新的特征图,称该新特征图为内嵌形状信息的深度特征SFt;
(2.5)将步骤(2.4)获得的内嵌形状信息的深度特征SFt输入到循环神经网络B以回归面部特征点更新量ΔSt={ΔLt_1,ΔLt_2,…,ΔLt_n},其中ΔLt_i=(Δxt_i,Δyt_i)表示第i个特征点的位置更新量,利用ΔSt对St进行更新优化并获得更加精准的面部特征点位置St+1=St+ΔSt;
(2.6)重复步骤(2.4)、(2.5)T次以获得足够精准的面部特征点定位ST;
(2.7)将以上步骤统一到一个整体的端到端的深度神经网络框架中,进行端到端的模型训练;
(3)模型训练阶段
(3.1)将步骤(1.2)获得的带有面部特征点标注的人脸图像集合D分为训练集T和校验集V;
(3.2)将训练集T输入到步骤2设计的端到端的模型M中利用批次随机梯度下降方法进行模型训练,导师信号为特征点标注Sg={Lg_1,Lg_2,…,Lg_n};利用校验集V验证模型训练效果,即当模型在校验集V上获得较好的面部特征点定位精度并且该精度不能随着训练过程再提升时,停止训练;
(3.3)最终训练完成获得模型M’;
(4)模型测试阶段
(4.1)输入图像为包含人脸的图像I;
(4.2)将图像I输入人脸检测器并获得人脸位置,并利用该人脸位置裁剪图像I获得人脸图像P;
(4.3)将人脸图像P输入步骤3.3获得的模型M’中以得到该人脸的面部特征点定位结果。
上述步骤(2.4)中内嵌形状信息的深度特征是通继承神经网络特征层的特征并嵌入形状相关信息而得到。并且,内嵌形状信息的深度特征可以输入到循环神经网络进一步优化特征点定位结果。
本发明将内嵌形状信息的深度特征与循环神经网络配合使用,极大地提高了面部特征点定位的精度。此外,本发明使用继承的神经网络特征,模型计算量将会极大减少,在保持较好的面部特征定位精度的条件下,能够达到超实时的面部特征点定位速度。
附图说明
下面结合附图和具体实施方式对本发明作进一步详细的说明。
图1是本发明的实施流程图。
图2是本发明将人脸进行标注完成后的图像。
具体实施方式
如图1所示,本发明具体包括以下步骤:
(1)数据准备阶段
(1.1)对RGB图像集合中的每一张人脸进行人工面部特征点标注:将所有n个特征点标注记为Sg={Lg_1,Lg_2,…,Lg_n}(该集合称为形状),其中Lg_i=(xg_i,yg_i)表示第i个面部特征点在图像中的坐标;
(1.2)将标注完成的图像集合通过人脸检测器以获得每一张图像中的人脸位置,位置信息为:左上角坐标(x_min,y_min)以及右下角坐标(x_max,y_max);
然后利用左上角以及右下角坐标所形成的矩形区域裁剪出人脸图像(即利用该矩形区域内的像素作为人脸图像),最终获得的N张人脸图像P及其对应的标注Sg,该N个样本组成的集合记为D={(P_1,Sg_1),(P_2,Sg_2),…,(P_N,Sg_N)};
(2)模型设计阶段,端到端的模型设计如下:
(2.1)将整体模型记为M,由两部分组成,分别为深度卷积神经网络A和循环神经网络B,模型输入为人脸图像P,人脸图像边长为d;
(2.2)对输入的人脸图像P,利用深度卷积神经网络A进行特征点向量回归,回归目标为S0={L0_1,L0_2,…,L0_n},其中L0_i=(x0_i,y0_i)表示第i个特征点的在图像上的坐标;
(2.3)取出网络A某个卷积层输出的深度特征图并记为F,其边长记为fd;
(2.4)继承步骤(2.3)中的深度特征图F并嵌入形状信息St={Lt_1,Lt_2,…,Lt_n}(第一次使用的形状信息为S0):以其中一个特征点Lt_i=(xt_i,yt_i)为例,计算该特征点在特征图F处对应的坐标L’t_i=(xt_i*fd/d,yt_i*fd/d),然后在特征图F上以L’t_i为中心获取区域大小为k*k的特征块,并将L’t_1,L’t_2,…,L’t_n对应的n个特征块按列或按行拼接为一个新的特征图,称该新特征图为内嵌形状信息的深度特征SFt;
(2.5)将步骤(2.4)获得的内嵌形状信息的深度特征SFt输入到循环神经网络B以回归面部特征点更新量ΔSt={ΔLt_1,ΔLt_2,…,ΔLt_n},其中ΔLt_i=(Δxt_i,Δyt_i)表示第i个特征点的位置更新量,利用ΔSt对St进行更新优化并获得更加精准的面部特征点位置St+1=St+ΔSt;
(2.6)重复步骤(2.4)、(2.5)T次以获得足够精准的面部特征点定位ST;
(2.7)将以上步骤统一到一个整体的端到端的深度神经网络框架中,进行端到端的模型训练;
(3)模型训练阶段
(3.1)将步骤(1.2)获得的带有面部特征点标注的人脸图像集合D分为训练集T和校验集V;
(3.2)将训练集T输入到步骤2设计的端到端的模型M中利用批次随机梯度下降方法进行模型训练,导师信号为特征点标注Sg={Lg_1,Lg_2,…,Lg_n};利用校验集V验证模型训练效果,即当模型在校验集V上获得较好的面部特征点定位精度并且该精度不能随着训练过程再提升时,停止训练;
(3.3)最终训练完成获得模型M’;
(4)模型测试阶段
(4.1)输入图像为包含人脸的图像I;
(4.2)将图像I输入人脸检测器并获得人脸位置,并利用该人脸位置裁剪图像I获得人脸图像P;
(4.3)将人脸图像P输入步骤3.3获得的模型M’中以得到该人脸的面部特征点定位结果。
本发明解决了现有技术中面部特征点定位速度慢并且精度不足的问题,并提出了一种利用内嵌形状信息深度特征的端到端的循环网络面部特征点定位方法及系统。其中,内嵌形状信息的深度特征是通继承神经网络特征层的特征并嵌入形状相关信息而得到。该特征可以从神经网络特征层直接继承,或者在原始人脸图像上通过卷积网络学习而得到。利用内嵌形状信息的深度特征可以极大提升面部特征点定位的精度。此外,如果使用继承的神经网络特征,模型计算量将会极大减少,在保持较好的面部特征定位精度的条件下,能够达到超实时的面部特征点定位速度。
本发明内嵌形状信息的深度特征可以输入到循环神经网络进一步优化特征点定位结果。其中,循环神经网络既可以共享网络权重亦可不共享网络权重。其技术效果可配合内嵌形状信息的深度特征逐步优化面部特征点定位结果。此外,本发明端到端的面部特征点定位框架可同时学习人脸形状初始化网络、内嵌形状信息的深度特征与循环神经网络的参数。
上述实施方式并非是对本发明的限制,本发明也并不仅限于上述举例,本技术领域的技术人员在本发明的技术方案范围内所做出的变化、改型、添加或替换,也均属于本发明的保护范围。
Claims (3)
1.一种基于端到端循环网络的面部特征点定位方法,其特征在于,包括以下步骤:
(1)数据准备阶段
(1.1)对RGB图像集合中的每一张人脸进行人工面部特征点标注:将所有n个特征点标注记为Sg={Lg_1,Lg_2,…,Lg_n},其中Lg_i=(xg_i,yg_i)表示第i个面部特征点在图像中的坐标;
(1.2)将标注完成的图像集合通过人脸检测器以获得每一张图像中的人脸位置,位置信息为:左上角坐标(x_min,y_min)以及右下角坐标(x_max,y_max);
然后利用左上角以及右下角坐标所形成的矩形区域裁剪出人脸图像,最终获得的N张人脸图像P及其对应的标注Sg,该N个样本组成的集合记为D={(P_1,Sg_1),(P_2,Sg_2),…,(P_N,Sg_N)};
(2)模型设计阶段,端到端的模型设计如下:
(2.1)将整体模型记为M,由两部分组成,分别为深度卷积神经网络A和循环神经网络B,模型输入为人脸图像P,人脸图像边长为d;
(2.2)对输入的人脸图像P,利用深度卷积神经网络A进行特征点向量回归,回归目标为S0={L0_1,L0_2,…,L0_n},其中L0_i=(x0_i,y0_i)表示第i个特征点的在图像上的坐标;
(2.3)取出网络A某个卷积层输出的深度特征图并记为F,其边长记为fd;
(2.4)继承步骤(2.3)中的深度特征图F并嵌入形状信息St={Lt_1,Lt_2,…,Lt_n}(第一次使用的形状信息为S0):以其中一个特征点Lt_i=(xt_i,yt_i)为例,计算该特征点在特征图F处对应的坐标L’t_i=(xt_i*fd/d,yt_i*fd/d),然后在特征图F上以L’t_i为中心获取区域大小为k*k的特征块,并将L’t_1,L’t_2,…,L’t_n对应的n个特征块按列或按行拼接为一个新的特征图,称该新特征图为内嵌形状信息的深度特征SFt;
(2.5)将步骤(2.4)获得的内嵌形状信息的深度特征SFt输入到循环神经网络B以回归面部特征点更新量ΔSt={ΔLt_1,ΔLt_2,…,ΔLt_n},其中ΔLt_i=(Δxt_i,Δyt_i)表示第i个特征点的位置更新量,利用ΔSt对St进行更新优化并获得更加精准的面部特征点位置St+1=St+ΔSt;
(2.6)重复步骤(2.4)、(2.5)T次以获得足够精准的面部特征点定位ST;
(2.7)将以上步骤统一到一个整体的端到端的深度神经网络框架中,进行端到端的模型训练;
(3)模型训练阶段
(3.1)将步骤(1.2)获得的带有面部特征点标注的人脸图像集合D分为训练集T和校验集V;
(3.2)将训练集T输入到步骤2设计的端到端的模型M中利用批次随机梯度下降方法进行模型训练,导师信号为特征点标注Sg={Lg_1,Lg_2,…,Lg_n};利用校验集V验证模型训练效果,即当模型在校验集V上获得较好的面部特征点定位精度并且该精度不能随着训练过程再提升时,停止训练;
(3.3)最终训练完成获得模型M’;
(4)模型测试阶段
(4.1)输入图像为包含人脸的图像I;
(4.2)将图像I输入人脸检测器并获得人脸位置,并利用该人脸位置裁剪图像I获得人脸图像P;
(4.3)将人脸图像P输入步骤3.3获得的模型M’中以得到该人脸的面部特征点定位结果。
2.根据权利要求1所述的基于端到端循环网络的面部特征点定位方法,其特征在于:所述步骤(2.4)中内嵌形状信息的深度特征是通继承神经网络特征层的特征并嵌入形状相关信息而得到。
3.根据权利要求1或2所述的基于端到端循环网络的面部特征点定位方法,其特征在于:所述内嵌形状信息的深度特征可以输入到循环神经网络进一步优化特征点定位结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710120005.1A CN106803084B (zh) | 2017-03-02 | 2017-03-02 | 一种基于端到端循环网络的面部特征点定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710120005.1A CN106803084B (zh) | 2017-03-02 | 2017-03-02 | 一种基于端到端循环网络的面部特征点定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106803084A true CN106803084A (zh) | 2017-06-06 |
CN106803084B CN106803084B (zh) | 2020-08-07 |
Family
ID=58988780
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710120005.1A Active CN106803084B (zh) | 2017-03-02 | 2017-03-02 | 一种基于端到端循环网络的面部特征点定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106803084B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107491767A (zh) * | 2017-08-31 | 2017-12-19 | 广州云从信息科技有限公司 | 端到端的无约束人脸关键点检测方法 |
CN107578439A (zh) * | 2017-07-19 | 2018-01-12 | 阿里巴巴集团控股有限公司 | 生成目标图像的方法、装置及设备 |
CN107808129A (zh) * | 2017-10-17 | 2018-03-16 | 南京理工大学 | 一种基于单个卷积神经网络的面部多特征点定位方法 |
CN108399649A (zh) * | 2018-03-05 | 2018-08-14 | 中科视拓(北京)科技有限公司 | 一种基于级联回归网络的单张图片三维人脸重建方法 |
CN109376593A (zh) * | 2018-09-10 | 2019-02-22 | 杭州格像科技有限公司 | 人脸特征点定位方法及系统 |
CN110929792A (zh) * | 2019-11-27 | 2020-03-27 | 深圳市商汤科技有限公司 | 图像标注方法、装置、电子设备及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1731416A (zh) * | 2005-08-04 | 2006-02-08 | 上海交通大学 | 快速且精确的人脸特征点定位方法 |
US8300950B2 (en) * | 2008-02-29 | 2012-10-30 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, program, and storage medium |
US20160004904A1 (en) * | 2010-06-07 | 2016-01-07 | Affectiva, Inc. | Facial tracking with classifiers |
CN106022237A (zh) * | 2016-05-13 | 2016-10-12 | 电子科技大学 | 一种端到端的卷积神经网络的行人检测方法 |
-
2017
- 2017-03-02 CN CN201710120005.1A patent/CN106803084B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1731416A (zh) * | 2005-08-04 | 2006-02-08 | 上海交通大学 | 快速且精确的人脸特征点定位方法 |
US8300950B2 (en) * | 2008-02-29 | 2012-10-30 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, program, and storage medium |
US20160004904A1 (en) * | 2010-06-07 | 2016-01-07 | Affectiva, Inc. | Facial tracking with classifiers |
CN106022237A (zh) * | 2016-05-13 | 2016-10-12 | 电子科技大学 | 一种端到端的卷积神经网络的行人检测方法 |
Non-Patent Citations (4)
Title |
---|
HANJIANG LAI,ET AL.: "《Deep Recurrent Regression for Facial Landmark Detection》", 《JOURNAL & MAGAZINES》 * |
YU CHEN,ET AL.: "《Recurrent neural network for facial landmark detection》", 《NEUROCOMPUTING》 * |
刘畅翔: "《人脸特征点定位算法及其在人脸识别的应用研究》", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
师亚亭,等: "《基于嘴巴状态约束的人脸特征点定位算法》", 《智能系统学报》 * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107578439A (zh) * | 2017-07-19 | 2018-01-12 | 阿里巴巴集团控股有限公司 | 生成目标图像的方法、装置及设备 |
CN107578439B (zh) * | 2017-07-19 | 2020-04-28 | 创新先进技术有限公司 | 生成目标图像的方法、装置及设备 |
CN107491767A (zh) * | 2017-08-31 | 2017-12-19 | 广州云从信息科技有限公司 | 端到端的无约束人脸关键点检测方法 |
CN107491767B (zh) * | 2017-08-31 | 2020-06-12 | 云从科技集团股份有限公司 | 端到端的无约束人脸关键点检测方法 |
CN107808129A (zh) * | 2017-10-17 | 2018-03-16 | 南京理工大学 | 一种基于单个卷积神经网络的面部多特征点定位方法 |
CN107808129B (zh) * | 2017-10-17 | 2021-04-16 | 南京理工大学 | 一种基于单个卷积神经网络的面部多特征点定位方法 |
CN108399649A (zh) * | 2018-03-05 | 2018-08-14 | 中科视拓(北京)科技有限公司 | 一种基于级联回归网络的单张图片三维人脸重建方法 |
CN109376593A (zh) * | 2018-09-10 | 2019-02-22 | 杭州格像科技有限公司 | 人脸特征点定位方法及系统 |
CN110929792A (zh) * | 2019-11-27 | 2020-03-27 | 深圳市商汤科技有限公司 | 图像标注方法、装置、电子设备及存储介质 |
CN110929792B (zh) * | 2019-11-27 | 2024-05-24 | 深圳市商汤科技有限公司 | 图像标注方法、装置、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN106803084B (zh) | 2020-08-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106803084A (zh) | 一种基于端到端循环网络的面部特征点定位方法 | |
CN108399649A (zh) | 一种基于级联回归网络的单张图片三维人脸重建方法 | |
CN111354079B (zh) | 三维人脸重建网络训练及虚拟人脸形象生成方法和装置 | |
CN110020633A (zh) | 姿态识别模型的训练方法、图像识别方法及装置 | |
CN110084304B (zh) | 一种基于合成数据集的目标检测方法 | |
CN105389569B (zh) | 一种人体姿态估计方法 | |
CN106548151B (zh) | 面向智能机器人的目标物检测追踪识别方法和系统 | |
CN109086798A (zh) | 一种数据标注方法和标注装置 | |
CN108038474A (zh) | 人脸检测方法、卷积神经网络参数的训练方法、装置及介质 | |
CN110443969A (zh) | 一种火点检测方法、装置、电子设备及存储介质 | |
CN111160440A (zh) | 一种基于深度学习的安全帽佩戴检测方法及装置 | |
CN105205453B (zh) | 基于深度自编码器的人眼检测和定位方法 | |
CN103824049A (zh) | 一种基于级联神经网络的人脸关键点检测方法 | |
CN107730507A (zh) | 一种基于深度学习的病变区域自动分割方法 | |
CN105243375B (zh) | 一种动作特征提取方法及装置 | |
CN111222486B (zh) | 手部姿态识别模型的训练方法、装置、设备及存储介质 | |
CN109886356A (zh) | 一种基于三分支神经网络的目标追踪方法 | |
CN108805058A (zh) | 目标对象变化姿态识别方法、装置及计算机设备 | |
CN106919906A (zh) | 一种图像互动方法及互动装置 | |
CN112329598B (zh) | 人脸关键点定位的方法、系统、电子装置和存储介质 | |
CN111695431A (zh) | 一种人脸识别方法、装置、终端设备及存储介质 | |
CN109816784A (zh) | 三维重构人体的方法和系统及介质 | |
CN110796135A (zh) | 目标的定位方法及装置、计算机设备、计算机存储介质 | |
CN110472495A (zh) | 一种基于图形推理全局特征的深度学习人脸识别方法 | |
CN108594321A (zh) | 一种基于数据增强的弱监督目标定位方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |