CN109063625A - 一种基于级联深度网络的人脸关键点检测方法 - Google Patents

一种基于级联深度网络的人脸关键点检测方法 Download PDF

Info

Publication number
CN109063625A
CN109063625A CN201810842288.5A CN201810842288A CN109063625A CN 109063625 A CN109063625 A CN 109063625A CN 201810842288 A CN201810842288 A CN 201810842288A CN 109063625 A CN109063625 A CN 109063625A
Authority
CN
China
Prior art keywords
information
face
key point
network
quote
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201810842288.5A
Other languages
English (en)
Inventor
武传营
李凡平
石柱国
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qingdao Isa Data Technology Co Ltd
Beijing Yisa Technology Co Ltd
Qingdao Yisa Data Technology Co Ltd
Original Assignee
Qingdao Isa Data Technology Co Ltd
Beijing Yisa Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qingdao Isa Data Technology Co Ltd, Beijing Yisa Technology Co Ltd filed Critical Qingdao Isa Data Technology Co Ltd
Priority to CN201810842288.5A priority Critical patent/CN109063625A/zh
Publication of CN109063625A publication Critical patent/CN109063625A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Abstract

本发明公开了一种基于级联深度网络的人脸关键点检测方法,包括以下步骤:样本采集:预先分别采集人脸信息、眼睛信息、鼻子信息和嘴巴信息,且标记人脸特征信息位置,确定眼睛关键点信息、鼻尖关键点信息和嘴角关键点信息;第一模型训练:将采集到的人脸信息、眼睛信息、鼻子信息和嘴巴信分别训练第一部分网络。本发明:通过采用第一部分网络和第二部分网络配合第一模型训练以及第二模型训练,不仅能更好的进行人脸关键点定位,而且精度高,能适应不同环境下的应用需求,提高了抗干扰能力以及解决了人脸关键点定位时出现偏差,和人脸存在遮挡、光照以及化妆采样难的问题。

Description

一种基于级联深度网络的人脸关键点检测方法
技术领域
本发明涉及计算机视觉技术领域,具体来说,涉及一种基于级联深度网络的人脸关键点检测方法。
背景技术
人脸关键点定位在计算机视觉领域有很多应用,例如人脸识别,表情识别,动画制作等。近年来,人脸关键点识别已经取得了很大的进步,但是在遮挡、光照、化妆等影响下,依然存在很大的问题。目前,人脸关键点定位主要有基于模型的方法、基于回归的方法,与基于深度学习的方法。
基于模型的方法主要是在训练的时候利用关键点周围的局部特征构造人脸模型。这种方法不需要大量的数据即可训练模型,且得到的参数化模型通用性较强,在检测,跟踪等不同应用场景下均可使用。目前,主要有ASM,AAM等方法。但是,这种基于模型的方法对于噪声比较敏感,且不能充分的描述在光照,表情变化等不同场合下人脸特征的非线性变化,因此,常常在人脸关键点定位时出现偏差。另外,在拟合模型时,常常涉及到求解优化的问题,因此预测速度也较慢。
基于回归的方法主要将关键点定位问题转变为一个回归的问题。在训练阶段,让回归模型去学习如何从图像输出关键点坐标的函数。在预测时,直接应用该函数求得关键点坐标。因此,较之基于模型的关键点预测方法,基于回归的方法速度很快,具有代表性的有SDM(监督下降法)。作为一种迭代方法,实际应用中训练集上的平均形状常常作为级联回归方法的初始值,当待预测图像的形状偏离训练集均值形状很大时,比如存在大的姿态变化时,回归方法常常收敛至较差的局部最优值。
基于深度学习的方法往往借助前两类方法的思想和框架设计算法。深度学习模型既可以作为回归器,也可以作为分类器或者特征提取器,应用较为灵活。Sun提出了一个三级级联框架,组合23个DCNN用于人脸基准点定位,后续层网络在前几层网络的基础上微调,所有网络都是从图像到关键点的回归器。Zhou等提出将基准点分组,然后每组基准点采用一个深度网络的方式,使其能检测多个基准点。由于,基于深度学习的方法能直接以原图像输入,它不需要初始形状火灾提取局部特征作为输入。并且,当同时定位多个基准点时,深度网络的结构能自然的组合形状约束和局部特征。因此,采用深度学习解决人脸基准点定位问题是非常有意义的。随着深度学习和人脸关键点定位的快速发展,目前该领域仍有许多值得探索的问题,比如如何应用最新的卷积神经网络结构和训练方式更好的进行人脸关键点定位。
针对相关技术中的问题,目前尚未提出有效的解决方案。
发明内容
针对相关技术中的问题,本发明提出一种基于级联深度网络的人脸关键点检测方法,以克服现有相关技术所存在的上述技术问题。
本发明的技术方案是这样实现的:
一种基于级联深度网络的人脸关键点检测方法,包括以下步骤:
样本采集:预先分别采集人脸信息、眼睛信息、鼻子信息和嘴巴信息,且标记人脸特征信息位置,确定眼睛关键点信息、鼻尖关键点信息和嘴角关键点信息;
第一模型训练:将采集到的人脸信息、眼睛信息、鼻子信息和嘴巴信分别训练第一部分网络,训练分别得到模型Af、Ae、An和Am;
检测识别:分别用训练所得模型Af、Ae、An和Am作为人脸检测器,其中,Af检测输入信息的人脸特征信息位置及人脸信息、眼睛信息、鼻子信息和嘴巴信息,用Ae检测输入信息的特征信息位置及眼睛关键点信息,用An检测输入信息的特征信息位置及鼻尖关键点信息,用Am检测输入信息的特征信息位置及嘴角关键点信息;
关键点确定:用检测出的人脸bounding对眼睛关键点信息、鼻尖关键点信息和嘴角关键点信息进行约束;
采集样本集:分别采集两份人脸信息、眼睛信息、鼻子信息和嘴巴信息,且标记人脸特征信息位置,确定数据集,每个数据集标定特征点位置以及以特征点为中心的小的boundingbox的groundtruth;
第二模型训练,将采集到的人脸信息、眼睛信息、鼻子信息、嘴巴信息和人脸特征信息位置分别进行训练第二部分网络,训练分别得到模型 QUOTE 、QUOTE 、 QUOTE 、 QUOTE 、QUOTE
计算检测:将关键点确定所约束的眼睛关键点信息、鼻尖关键点信息和嘴角关键点信息为中心,确定boundingbox;
检测校正:将计算检测所得boundingbox分别输入至第二模型训练模型 QUOTE 、 QUOTE 、 QUOTE 、QUOTE 、 QUOTE 内,确定眼睛关键点信息、鼻尖关键点信息和嘴角关键点信息。
进一步的,所述第一部分网络为全卷积网络和CNN网络级联组成,所述全卷积网络和CNN网络分别包括目标识别、关键点检测和boundingbox回归。
进一步的,所述第二部分网络为CNN网络。
进一步的,所述关键点确定包括对检测出的人脸bounding约束信息的同一特征信息取平均值。
本发明的有益效果:通过采用第一部分网络和第二部分网络配合第一模型训练以及第二模型训练,不仅能更好的进行人脸关键点定位,而且精度高,能适应不同环境下的应用需求,提高了抗干扰能力以及解决了人脸关键点定位时出现偏差,和人脸存在遮挡、光照以及化妆采样难的问题。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是根据本发明实施例的一种基于级联深度网络的人脸关键点检测方法的流程示意图;
图2是根据本发明实施例的一种基于级联深度网络的人脸关键点检测方法的第一部分网络全卷积神经网络结构图;
图3是根据本发明实施例的一种基于级联深度网络的人脸关键点检测方法的第一部分网络CNN网络结构图;
图4是根据本发明实施例的一种基于级联深度网络的人脸关键点检测方法的第二部分网络的CNN网络结构图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员所获得的所有其他实施例,都属于本发明保护的范围。
根据本发明的实施例,提供了一种基于级联深度网络的人脸关键点检测方法。
如图1-4所示,根据本发明实施例的基于级联深度网络的人脸关键点检测方法,包括以下步骤:
步骤S101,样本采集:预先分别采集人脸信息、眼睛信息、鼻子信息和嘴巴信息,且标记人脸特征信息位置,确定眼睛关键点信息、鼻尖关键点信息和嘴角关键点信息;
步骤S103,第一模型训练:将采集到的人脸信息、眼睛信息、鼻子信息和嘴巴信分别训练第一部分网络,训练分别得到模型Af、Ae、An和Am;
步骤S105,检测识别:分别用训练所得模型Af、Ae、An和Am作为人脸检测器,其中,Af检测输入信息的人脸特征信息位置及人脸信息、眼睛信息、鼻子信息和嘴巴信息,用Ae检测输入信息的特征信息位置及眼睛关键点信息,用An检测输入信息的特征信息位置及鼻尖关键点信息,用Am检测输入信息的特征信息位置及嘴角关键点信息;
步骤S107,关键点确定:用检测出的人脸bounding对眼睛关键点信息、鼻尖关键点信息和嘴角关键点信息进行约束;
步骤S109,采集样本集:分别采集两份人脸信息、眼睛信息、鼻子信息和嘴巴信息,且标记人脸特征信息位置,确定数据集,每个数据集标定特征点位置以及以特征点为中心的小的boundingbox的groundtruth;
步骤S111,第二模型训练,将采集到的人脸信息、眼睛信息、鼻子信息、嘴巴信息和人脸特征信息位置分别进行训练第二部分网络,训练分别得到模型 QUOTE 、 QUOTE 、 QUOTE 、 QUOTE 、 QUOTE
步骤S113,计算检测:将关键点确定所约束的眼睛关键点信息、鼻尖关键点信息和嘴角关键点信息为中心,确定boundingbox;
步骤S115,检测校正:将计算检测所得boundingbox分别输入至第二模型训练模型QUOTE 、 QUOTE 、 QUOTE 、QUOTE 、 QUOTE 内,确定眼睛关键点信息、鼻尖关键点信息和嘴角关键点信息。
另外,在一个实施例中,所述第一部分网络为全卷积网络和CNN网络级联组成,所述全卷积网络和CNN网络分别包括目标识别、关键点检测和boundingbox回归。
另外,在一个实施例中,所述第二部分网络为CNN网络。
另外,在一个实施例中,所述关键点确定包括对检测出的人脸bounding约束信息的同一特征信息取平均值。
另外,在一个实施例中,对于上述第一部分网络来说,所述目标识别、关键点检测和boundingbox回归,包括以下特性信息:
目标二分类时,对每一个样本 QUOTE ,采用交叉熵损失:
其中, QUOTE 为网络产生的是否为目标的置信值; QUOTE 是指groundtruth,值取0或1。
BoundingBox回归时,计算预测的候选框与groundtruth的距离时,对每一个样本QUOTE ,我们采用欧几里得距离:
其中, QUOTE 是网络预测的boundingbox坐标值, QUOTE 是groundtruth标定的坐标值。每个groundtruth包括上下左右四个值,因此 QUOTE 是四维的。
Landmark回归时,与boundingbox相似,采用 QUOTE 损失:
其中, QUOTE 是网络预测的人脸关键点, QUOTE 是groundtruth标定的人脸关键点的坐标。
多任务训练时,由于有各种不同的数据输入CNN,有脸的,无脸的,半张脸的,所以并非每张图片都会产生以上所述3个loss值。在没有人脸的图像中,只计算 QUOTE ,把其他两个损失置为0。这可以通过一个图片类型指示器实现,通过判断不同的图片类型相应不同的处理方式。总的损失函数可表示为:
其中,N是训练样本的数量, QUOTE 表示任务的重要性,我们在第一部分网络中设QUOTE , QUOTE , QUOTE ,使其重点做人脸分类与boundingbox回归,在第二部分网络中设 QUOTE , QUOTE , QUOTE ,使其着重做boundingbox回归与landmark回归, QUOTE 是图片类型指示器,值取0或1。
另外,在一个实施例中,对于上述第一模型训练的模型Af、Ae、An和Am来说,同一关键点预测的坐标值求取平均值,特征如下:
其中,Landmarks为最后求得的关键点坐标; QUOTE , QUOTE , QUOTE , QUOTE 为Af模型预测出的左眼,右眼,鼻尖,左嘴角,右嘴角坐标值; QUOTE , QUOTE 为Ae模型预测出的左眼,右眼坐标值,QUOTE 为An模型预测出的鼻尖坐标值, QUOTE , QUOTE 为Am模型预测出的左嘴角、右嘴角坐标值。
另外,在一个实施例中,对于上述检测校正来说,人脸关键点校正,其特征如下:
其中,FLandmarks为矫正过后的关键点坐标, QUOTE 为QUOTE 网络预测的左眼坐标值, QUOTE 为 QUOTE 网络预测的右眼坐标值, QUOTE 为 QUOTE 网络预测的鼻尖坐标值, QUOTE 为 QUOTE 网络预测的左嘴角坐标值, QUOTE 为 QUOTE 网络预测的右嘴角坐标值。
综上所述,借助于本发明的上述技术方案,通过采用第一部分网络和第二部分网络配合第一模型训练以及第二模型训练,不仅能更好的进行人脸关键点定位,而且精度高,能适应不同环境下的应用需求,提高了抗干扰能力以及解决了人脸关键点定位时出现偏差,和人脸存在遮挡、光照以及化妆采样难的问题。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (4)

1.一种基于级联深度网络的人脸关键点检测方法,其特征在于,包括以下步骤:
样本采集:预先分别采集人脸信息、眼睛信息、鼻子信息和嘴巴信息,且标记人脸特征信息位置,确定眼睛关键点信息、鼻尖关键点信息和嘴角关键点信息;
第一模型训练:将采集到的人脸信息、眼睛信息、鼻子信息和嘴巴信分别训练第一部分网络,训练分别得到模型Af、Ae、An和Am;
检测识别:分别用训练所得模型Af、Ae、An和Am作为人脸检测器,其中,Af检测输入信息的人脸特征信息位置及人脸信息、眼睛信息、鼻子信息和嘴巴信息,用Ae检测输入信息的特征信息位置及眼睛关键点信息,用An检测输入信息的特征信息位置及鼻尖关键点信息,用Am检测输入信息的特征信息位置及嘴角关键点信息;
关键点确定:用检测出的人脸bounding对眼睛关键点信息、鼻尖关键点信息和嘴角关键点信息进行约束;
采集样本集:分别采集两份人脸信息、眼睛信息、鼻子信息和嘴巴信息,且标记人脸特征信息位置,确定数据集,每个数据集标定特征点位置以及以特征点为中心的小的boundingbox的groundtruth;
第二模型训练,将采集到的人脸信息、眼睛信息、鼻子信息、嘴巴信息和人脸特征信息位置分别进行训练第二部分网络,训练分别得到模型 QUOTE 、QUOTE 、 QUOTE 、 QUOTE 、 QUOTE
计算检测:将关键点确定所约束的眼睛关键点信息、鼻尖关键点信息和嘴角关键点信息为中心,确定boundingbox;
检测校正:将计算检测所得boundingbox分别输入至第二模型训练模型 QUOTE 、 QUOTE 、 QUOTE 、QUOTE 、 QUOTE 内,确定眼睛关键点信息、鼻尖关键点信息和嘴角关键点信息。
2.根据权利要求1所述的基于级联深度网络的人脸关键点检测方法,其特征在于,所述第一部分网络为全卷积网络和CNN网络级联组成,所述全卷积网络和CNN网络分别包括目标识别、关键点检测和boundingbox回归。
3.根据权利要求1所述的基于级联深度网络的人脸关键点检测方法,其特征在于,所述第二部分网络为CNN网络。
4.根据权利要求1所述的基于级联深度网络的人脸关键点检测方法,其特征在于,所述关键点确定包括对检测出的人脸bounding约束信息的同一特征信息取平均值。
CN201810842288.5A 2018-07-27 2018-07-27 一种基于级联深度网络的人脸关键点检测方法 Pending CN109063625A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810842288.5A CN109063625A (zh) 2018-07-27 2018-07-27 一种基于级联深度网络的人脸关键点检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810842288.5A CN109063625A (zh) 2018-07-27 2018-07-27 一种基于级联深度网络的人脸关键点检测方法

Publications (1)

Publication Number Publication Date
CN109063625A true CN109063625A (zh) 2018-12-21

Family

ID=64835861

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810842288.5A Pending CN109063625A (zh) 2018-07-27 2018-07-27 一种基于级联深度网络的人脸关键点检测方法

Country Status (1)

Country Link
CN (1) CN109063625A (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109740567A (zh) * 2019-01-18 2019-05-10 北京旷视科技有限公司 关键点定位模型训练方法、定位方法、装置及设备
CN109784293A (zh) * 2019-01-24 2019-05-21 苏州科达科技股份有限公司 多类目标对象检测方法、装置、电子设备、存储介质
CN109919048A (zh) * 2019-02-21 2019-06-21 北京以萨技术股份有限公司 一种基于级联MobileNet-V2实现人脸关键点检测的方法
CN109993061A (zh) * 2019-03-01 2019-07-09 珠海亿智电子科技有限公司 一种人脸检测与识别方法、系统以及终端设备
CN110084134A (zh) * 2019-04-03 2019-08-02 东华大学 一种基于级联神经网络和特征融合的人脸考勤系统
CN110309706A (zh) * 2019-05-06 2019-10-08 深圳市华付信息技术有限公司 人脸关键点检测方法、装置、计算机设备及存储介质
CN110634133A (zh) * 2019-09-04 2019-12-31 杭州健培科技有限公司 一种基于x线平片的膝关节骨科测量方法及装置
CN110852165A (zh) * 2019-10-10 2020-02-28 天津大学 一种基于视频的婴幼儿智能看护系统及方法
CN111553249A (zh) * 2020-04-25 2020-08-18 深圳德技创新实业有限公司 一种cv下基于h-b分级的精准面瘫程度评测方法及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103824054A (zh) * 2014-02-17 2014-05-28 北京旷视科技有限公司 一种基于级联深度神经网络的人脸属性识别方法
US20150363634A1 (en) * 2014-06-17 2015-12-17 Beijing Kuangshi Technology Co.,Ltd. Face Hallucination Using Convolutional Neural Networks
CN107967456A (zh) * 2017-11-27 2018-04-27 电子科技大学 一种基于人脸关键点的多神经网络级联识别人脸方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103824054A (zh) * 2014-02-17 2014-05-28 北京旷视科技有限公司 一种基于级联深度神经网络的人脸属性识别方法
US20150363634A1 (en) * 2014-06-17 2015-12-17 Beijing Kuangshi Technology Co.,Ltd. Face Hallucination Using Convolutional Neural Networks
CN107967456A (zh) * 2017-11-27 2018-04-27 电子科技大学 一种基于人脸关键点的多神经网络级联识别人脸方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
KAIPENG ZHANG 等: "Joint Face Detection and Alignment Using Multitask Cascaded Convolutional Networks", 《IEEE SIGNAL PROCESSING LETTERS》 *
SHAOHUA ZHANG 等: "Multiple deep convolutional neural networks averaging for face alignment", 《JOURNAL OF ELECTRONIC IMAGING》 *
SHAOHUA ZHANG: "Transferred Deep Convolutional Neural Network Features for Extensive Facial Landmark Localization", 《IEEE SIGNAL PROCESSING LETTERS》 *
YI SUN 等: "Deep Convolutional Network Cascade for Facial Point Detection", 《2013 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 *
张少华: "基于深度卷积神经网络的人脸基准点定位研究", 《中国博士学位论文全文数据库信息科技辑》 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109740567A (zh) * 2019-01-18 2019-05-10 北京旷视科技有限公司 关键点定位模型训练方法、定位方法、装置及设备
CN109784293A (zh) * 2019-01-24 2019-05-21 苏州科达科技股份有限公司 多类目标对象检测方法、装置、电子设备、存储介质
CN109919048A (zh) * 2019-02-21 2019-06-21 北京以萨技术股份有限公司 一种基于级联MobileNet-V2实现人脸关键点检测的方法
CN109993061A (zh) * 2019-03-01 2019-07-09 珠海亿智电子科技有限公司 一种人脸检测与识别方法、系统以及终端设备
CN109993061B (zh) * 2019-03-01 2021-12-07 珠海亿智电子科技有限公司 一种人脸检测与识别方法、系统以及终端设备
CN110084134A (zh) * 2019-04-03 2019-08-02 东华大学 一种基于级联神经网络和特征融合的人脸考勤系统
CN110309706A (zh) * 2019-05-06 2019-10-08 深圳市华付信息技术有限公司 人脸关键点检测方法、装置、计算机设备及存储介质
CN110634133A (zh) * 2019-09-04 2019-12-31 杭州健培科技有限公司 一种基于x线平片的膝关节骨科测量方法及装置
CN110852165A (zh) * 2019-10-10 2020-02-28 天津大学 一种基于视频的婴幼儿智能看护系统及方法
CN111553249A (zh) * 2020-04-25 2020-08-18 深圳德技创新实业有限公司 一种cv下基于h-b分级的精准面瘫程度评测方法及装置
CN111553249B (zh) * 2020-04-25 2021-04-30 深圳德技创新实业有限公司 一种cv下基于h-b分级的精准面瘫程度评测方法及装置

Similar Documents

Publication Publication Date Title
CN109063625A (zh) 一种基于级联深度网络的人脸关键点检测方法
CN111460962B (zh) 一种口罩人脸识别方法及系统
CN108052859B (zh) 一种基于聚类光流特征的异常行为检测方法、系统及装置
US20190122072A1 (en) Reverse neural network for object re-identification
CN103971386B (zh) 一种动态背景场景下的前景检测方法
CN105745687B (zh) 情景感知移动目标检测
CN111191616A (zh) 一种人脸遮挡检测方法、装置、设备及存储介质
CN108053427A (zh) 一种基于KCF与Kalman的改进型多目标跟踪方法、系统及装置
CN110414400B (zh) 一种施工现场安全帽穿戴自动检测方法及系统
CN106295567A (zh) 一种关键点的定位方法及终端
CN110781836A (zh) 人体识别方法、装置、计算机设备及存储介质
CN103824070A (zh) 一种基于计算机视觉的快速行人检测方法
CN103440645A (zh) 一种基于自适应粒子滤波和稀疏表示的目标跟踪算法
CN107301376B (zh) 一种基于深度学习多层刺激的行人检测方法
CN112232199A (zh) 基于深度学习的佩戴口罩检测方法
CN103020992A (zh) 一种基于运动颜色关联的视频图像显著性检测方法
CN108776974A (zh) 一种适用于公共交通场景的实时目标跟踪方法
CN105022999A (zh) 一种人码伴随实时采集系统
CN111639602B (zh) 一种行人遮挡及朝向检测方法
CN108537181A (zh) 一种基于大间距深度度量学习的步态识别方法
Li et al. Robust multiperson detection and tracking for mobile service and social robots
CN112926522B (zh) 一种基于骨骼姿态与时空图卷积网络的行为识别方法
Wang et al. Target detection algorithm based on gaussian mixture background subtraction model
CN104463909A (zh) 基于信度组合地图模型的视觉目标跟踪方法
CN105701464A (zh) 一种判断人脸检测误检及关键点定位准确度的方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information
CB02 Change of applicant information

Address after: No. 77, Lingyan Road, LINGSHANWEI sub district office, Huangdao District, Qingdao City, Shandong Province

Applicant after: Issa Technology Co.,Ltd.

Applicant after: QINGDAO YISA DATA TECHNOLOGY Co.,Ltd.

Address before: 108, 102 / F, building 17, yard 6, Jingshun East Street, Chaoyang District, Beijing

Applicant before: BEIJING YISA TECHNOLOGY Co.,Ltd.

Applicant before: QINGDAO YISA DATA TECHNOLOGY Co.,Ltd.

CB02 Change of applicant information
CB02 Change of applicant information

Address after: 266500 business premises, No. 77, Lingyan Road, LINGSHANWEI sub district office, Huangdao District, Qingdao City, Shandong Province

Applicant after: Issa Technology Co.,Ltd.

Applicant after: QINGDAO YISA DATA TECHNOLOGY Co.,Ltd.

Address before: No. 77, Lingyan Road, LINGSHANWEI sub district office, Huangdao District, Qingdao City, Shandong Province

Applicant before: Issa Technology Co.,Ltd.

Applicant before: QINGDAO YISA DATA TECHNOLOGY Co.,Ltd.

RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20181221