CN110245712A - 一种人体及人脸属性识别方法及系统 - Google Patents
一种人体及人脸属性识别方法及系统 Download PDFInfo
- Publication number
- CN110245712A CN110245712A CN201910530164.8A CN201910530164A CN110245712A CN 110245712 A CN110245712 A CN 110245712A CN 201910530164 A CN201910530164 A CN 201910530164A CN 110245712 A CN110245712 A CN 110245712A
- Authority
- CN
- China
- Prior art keywords
- human body
- model
- face
- attribute
- submodule
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Molecular Biology (AREA)
- Evolutionary Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Image Analysis (AREA)
- Collating Specific Patterns (AREA)
Abstract
本发明公开了一种人体及人脸属性识别方法,其特征在于,包括准备人体属性数据集和人脸属性数据集、训练人体属性识别模型、训练人脸属性识别模型、整合人脸属性和人体属性模型:将输出结果dict1与dict2融合成一个输出结果集的步骤。达到高效准确的完成识别人有关属性的工作,能够应用到商场零售商店的监控识别以及安防等方向,有利于追踪和定位相关人员的效果。
Description
技术领域
本发明涉及图像识别领域,特别是涉及一种人体及人脸属性识别方法及系统。
背景技术
随着社会的发展,快速有效的自动身份验证在安防领域变的越来越迫切。由于生物特性是人的内在属性,具有很强的自身稳定性和个体差异性,是身份验证的最理想依据。利用人脸属性和人体属性进行身份验证又是最自然直接的手段,相比其它人体生物特性,它具有直接、友好、方便的特点,更容易被用户所接受且不易察觉。一个正常的成年人可以轻易的理解人体和人脸的信息,但将同样的能力赋予给计算机,并让其代替人类进行类脑思考成为研究学者亟待攻克的科学课题。
最早的行人属性识别通过人工提取特征,并针对每个不同的属性分别训练分类器。随着CNN的发展,人们开始尝试把所有属性置于同一个网络进行多任务训练,并发现多任务训练能够带来更好的效果。目前行人属性识别的基本方法是将整个图片扔进同一个CNN网络,并输出多个代表属性的标签进行分类。一个人的人体属性蕴含着大量的信息,比如性别,衣服款式,颜色,是否背包,头发长短等等。同样的,人脸是一种非常重要的生物特征,具有结构复杂、细节变化多等特点,同时也蕴含了大量的信息,比如性别、年龄、发型、表情、配饰等。
随着深度学习技术的发展,将人的一些能力赋予给计算机,让计算机拥有一些人的能力也成为了可能。深度学习依赖于大量的数据及标签,深度学习方法是通过大量的数据,自动学习到能够反应数据差别的特征,更具有代表性。对于视觉识别来说,CNN分层提取的特征与人的视觉机理(神经科学)类似,因而基于深度学习的方法设计的识别方法和系统较传统方法更可靠和实用。
发明内容
本发明所要解决的技术问题是克服现有技术的不足,提供一种人体及人脸属性识别方法及系统。
为解决上述技术问题,本发明提供一种人体及人脸属性识别方法,其特征在于,包括如下步骤:
步骤一:准备数据集,所述数据集包括两部分:人体属性数据集和人脸属性数据集;
步骤二:基于人体属性数据集,利用深度神经网络训练人体属性识别模型,并对模型进行评估及优化;
步骤三:基于人脸属性数据集,训练人脸属性识别模型,并对模型进行评估和优化;
步骤四:整合人脸属性和人体属性模型;对于待识别的图片Image,检测人脸,利用程序脚本将人脸图片自动裁剪输出为image_face,然后调用人脸属性识别模型,得到输出结果dict1,与此同时,对于待识别图片直接调用人体属性识别模型,得到输出结果dict2;
步骤五:将输出结果dict1与dict2融合成一个输出结果集:dict:{face_attribute:True or False,…,pedestrian_attribute:True or False,…}。
所述步骤一中,所述人体属性数据集来自于PETA数据集,具体是从PETA数据集中选出35个属性进行识别;所述人脸属性数据集来自于CelebA数据集。
所述步骤二具体为:基于PETA数据集,对于每一张输入图片Image,输出为一个dict:{pedestrian_attribute:True or False},如果结果字典为:{pedestrian_attribute:True}表示图片中的人有人体属性,如果结果字典为:{pedestrian_attribute:False}表示图片中的人没有人体属性,利用深度神经网络训练人体属性识别模型,使得
F(Image)={pedestrian_attribute:True or False};
对模型进行测试,如果模型准确率低于可用阈值Threshold(F),所述可用阈值设为0.8,则优化数据集或模型,重新训练,直到模型可用。
所述步骤三具体为:基于CelebA数据集,对于每一张输入图片Image,输出为一个dict:{face_attribute:True or False},如果结果字典为:{face_attribute:True}表示图片中的人有人脸属性,如果结果字典为:{face_attribute:False}表示图片中的人没有人脸属性,利用深度神经网络训练人脸属性识别模型,使得
F(Image)={face_attribute:True or False};
对模型进行测试,如果模型准确率低于可用阈值Threshold(F),所述可用阈值设为0.8,则优化数据集或模型,重新训练,直到模型可用。
一种人体及人脸属性识别系统,其特征在于:包括:数据源模块、模型训练模块、属性识别模块;
所述数据源模块,用于训练人体属性识别和人脸属性识别模型所需要准备的数据集,主要包括:用于人体属性识别训练的PETA数据集和用于人脸属性识别训练的CelebA数据集;
所述模型训练模块,利用深度神经网络训练人体属性识别模型和人脸属性识别模型,其中包括四个子模块:人体属性识别模型训练子模块,人体属性识别模型子模块,人脸属性识别模型训练子模块,人脸识别模型子模块;所述人体属性识别模型训练子模块,是根据PETA数据集,利用深度神经网络训练人体属性识别模型;所述人体属性识别模型子模块,是对模型进行评估及优化,最终得到可用的人体属性识别模型;所述人脸属性识别模型训练子模块,是根据CelebA数据集,利用深度神经网络训练人脸属性识别模型;所述人脸属性识别模型子模块,是对模型进行评估及优化,最终得到可用的人脸属性识别模型;
所述属性识别模块,提供人体属性和人脸属性识别的综合接口,接收待识别的图片,通过调用模型最终返回有关的人体属性和人脸属性;其中包括五个子模块:待识别图片接收子模块,人体属性识别子模块,人脸检测子模块,人脸属性识别子模块,识别信息返回子模块。所述待识别图片接收子模块,用于接收待识别的图片信息;所述人体属性识别子模块,对于待识别的图片,调用人体属性识别模型,得到有关人体属性;所述人脸检测子模块,对于待识别的图片,检测人脸,进行裁剪输出图片;所述人脸属性识别子模块,对于输出的人脸图片,调用人脸属性识别模型,得到图片中人脸的相关属性;所述识别信息返回子模块,将最终识别的属性信息整合并返回。
本发明所达到的有益效果:能够高效准确的完成识别人有关属性的工作,能够应用到商场零售商店的监控识别以及安防等方向,有利于追踪和定位相关人员。
附图说明
图1为本发明的示例性实施例的人体及人脸属性识别方法的流程示意图;
图2为本发明的示例性实施例的人体及人脸属性识别系统的结构示意图。
具体实施方式
一种人体及人脸属性识别方法,其特征在于,包括如下步骤:
步骤一:准备数据集,所述数据集包括两部分:人体属性数据集和人脸属性数据集;
步骤二:基于人体属性数据集,利用深度神经网络训练人体属性识别模型,并对模型进行评估及优化;
步骤三:基于人脸属性数据集,训练人脸属性识别模型,并对模型进行评估和优化;
步骤四:整合人脸属性和人体属性模型;对于待识别的图片Image,检测人脸,利用程序脚本将人脸图片自动裁剪输出为image_face,然后调用人脸属性识别模型,得到输出结果dict1,与此同时,对于待识别图片直接调用人体属性识别模型,得到输出结果dict2;
步骤五:将输出结果dict1与dict2融合成一个输出结果集:dict:{face_attribute:True or False,…,pedestrian_attribute:True or False,…}。
所述步骤一中,所述人体属性数据集来自于PETA数据集,具体是从PETA数据集中选出35个属性进行识别;所述人脸属性数据集来自于CelebA数据集。
所述步骤二具体为:基于PETA数据集,对于每一张输入图片Image,输出为一个dict:{pedestrian_attribute:True or False},如果结果字典为:{pedestrian_attribute:True}表示图片中的人有人体属性,如果结果字典为:{pedestrian_attribute:False}表示图片中的人没有人体属性,利用深度神经网络训练人体属性识别模型,使得
F(Image)={pedestrian_attribute:True or False};
对模型进行测试,如果模型准确率低于可用阈值Threshold(F),所述可用阈值设为0.8,则优化数据集或模型,重新训练,直到模型可用。
所述步骤三具体为:基于CelebA数据集,对于每一张输入图片Image,输出为一个dict:{face_attribute:True or False},如果结果字典为:{face_attribute:True}表示图片中的人有人脸属性,如果结果字典为:{face_attribute:False}表示图片中的人没有人脸属性,利用深度神经网络训练人脸属性识别模型,使得
F(Image)={face_attribute:True or False};
对模型进行测试,如果模型准确率低于可用阈值Threshold(F),所述可用阈值设为0.8,则优化数据集或模型,重新训练,直到模型可用。
一种人体及人脸属性识别系统,其特征在于:包括:数据源模块、模型训练模块、属性识别模块;
所述数据源模块,用于训练人体属性识别和人脸属性识别模型所需要准备的数据集,主要包括:用于人体属性识别训练的PETA数据集和用于人脸属性识别训练的CelebA数据集;
所述模型训练模块,利用深度神经网络训练人体属性识别模型和人脸属性识别模型,其中包括四个子模块:人体属性识别模型训练子模块,人体属性识别模型子模块,人脸属性识别模型训练子模块,人脸识别模型子模块;所述人体属性识别模型训练子模块,是根据PETA数据集,利用深度神经网络训练人体属性识别模型;所述人体属性识别模型子模块,是对模型进行评估及优化,最终得到可用的人体属性识别模型;所述人脸属性识别模型训练子模块,是根据CelebA数据集,利用深度神经网络训练人脸属性识别模型;所述人脸属性识别模型子模块,是对模型进行评估及优化,最终得到可用的人脸属性识别模型;
所述属性识别模块,提供人体属性和人脸属性识别的综合接口,接收待识别的图片,通过调用模型最终返回有关的人体属性和人脸属性;其中包括五个子模块:待识别图片接收子模块,人体属性识别子模块,人脸检测子模块,人脸属性识别子模块,识别信息返回子模块。所述待识别图片接收子模块,用于接收待识别的图片信息;所述人体属性识别子模块,对于待识别的图片,调用人体属性识别模型,得到有关人体属性;所述人脸检测子模块,对于待识别的图片,检测人脸,进行裁剪输出图片;所述人脸属性识别子模块,对于输出的人脸图片,调用人脸属性识别模型,得到图片中人脸的相关属性;所述识别信息返回子模块,将最终识别的属性信息整合并返回。
下面结合附图和示例性实施例对本发明作进一步的说明:
如图1所示,本发明实施例的流程,具体步骤为:
步骤11:准备数据集,主要包括用于人体属性识别的PETA数据集和用于人脸属性识别的CelebA数据集。PETA数据集是2014年发布的数据集,是第一个针对行人属性识别的上万规模的数据集,其收集结合了10个行人再识别小数据集,共19000张行人样本,包括8705个行人,每个样本分为61个二分类属性和4个多分类属性,分辨率范围:17*39~169*365。CelebA数据集是香港中文大学的开放数据,包含10177个名人身份的202599张图片,并且都做好了特征属性标记共计40个属性标签,并且该数据集已经将人脸数据裁剪好,给出了相应的坐标位置。
步骤12:基于数据集PETA,利用深度神经网络训练人体属性识别模型,并对模型进行评估及优化。对于每一张输入图片Image,输出为一个dict:{pedestrian_attribute:True or False},如果结果字典为:{pedestrian_attribute:True}表示图片中的人有该属性,如果结果字典为:{pedestrian_attribute:False}表示图片中的人没有该属性。利用深度神经网络训练人体属性识别模型,使得
F(Image)={pedestrian_attribute:True or False}
为了得到一个可用的人体属性识别模型,我们需要对模型进行测试,如果模型准确率低于可用阈值Threshold(F),就需要优化数据集或模型,重新训练,直到模型可用。
步骤13:类似于步骤12,基于数据集celebA,训练人脸属性识别模型,并对模型进行评估和优化。同样的,对于每一张输入图片Image,输出为一个dict:{face_attribute:True or False},如果结果字典为:{face_attribute:True}表示图片中的人有该属性,如果结果字典为:{face_attribute:False}表示图片中的人没有该属性。利用深度神经网络训练人脸属性识别模型,使得
F(Image)={face_attribute:True or False}
为了得到一个可用的人脸属性识别模型,我们需要对模型进行测试,如果模型准确率低于可用阈值Threshold(F),就需要优化数据集或模型,重新训练,直到模型可用。
步骤14:整合人脸属性和人体属性模型。对于待识别的图片Image,首先检测人脸,将人脸图片裁剪输出为image_face,然后调用人脸属性识别模型,得到输出结果dict1,与此同时,对于待识别图片直接调用人体属性识别模型,得到输出结果dict2。
步骤15:将两个输出结果融合成一个输出结果集:dict:{face_attribute:Trueor False,…,pedestrian_attribute:True or False,…}。
参阅图2所示,本发明实施例的系统结构,包括:数据源模块21、模型训练模块22、属性识别模块23。
数据源模块21,用于训练人体属性识别和人脸属性识别模型所需要准备的数据集,主要包括:PETA数据集(主要用于人体属性识别训练),CelebA数据集(主要用于人脸属性识别训练)。
模型训练模块22,利用深度神经网络训练人体属性识别模型和人脸属性识别模型。其中包括四个子模块:人体属性识别模型训练子模块221,人体属性识别模型子模块222,人脸属性识别模型训练子模块223,人脸识别模型子模块224。
人体属性识别模型训练子模块221,是根据PETA数据集,利用深度神经网络训练人体属性识别模型。
人体属性识别模型子模块222,是对模型进行评估及优化,最终得到可用的人体属性识别模型。
人脸属性识别模型训练子模块223,是根据CelebA数据集,利用深度神经网络训练人脸属性识别模型。
人脸识别模型子模块224,是对模型进行评估及优化,最终得到可用的人脸属性识别模型。
属性识别模块23,主要提供人体属性和人脸属性识别的综合接口,接收待识别的图片,通过调用模型最终返回有关的人体属性和人脸属性。其中包括五个子模块:待识别图片接收子模块231,人体属性识别子模块232,人脸检测子模块233,人脸属性识别子模块234,识别信息返回子模块235。
待识别图片接收子模块231,用于接收待识别的图片信息。
人体属性识别子模块232,对于待识别的图片,调用人体属性识别模型,得到有关人体属性。
人脸检测子模块233,对于待识别的图片,检测人脸,进行裁剪输出图片。
人脸属性识别子模块234,对于输出的人脸图片,调用人脸属性识别模型,得到图片中人脸的相关属性。
识别信息返回子模块235,将最终识别的属性信息整合并返回。
本发明主要用于提供一种人体及人脸属性识别方法及系统,选定开源数据集PETA和CelebA,该数据集质量高,数据量大,利用深度神经网络训练人体属性识别模型以及人脸属性识别模型,通过人体属性识别模型,可以识别到图片中人体的基本属性,通过人脸属性识别模型,可以识别图片中人脸的基本属性,两个模型结合起来可以实现识别一张图片中人体属性和人脸属性综合信息,该方法和系统能够高效准确的完成识别人有关属性的工作,能够应用到商场零售商店的监控识别以及安防等方向,有利于追踪和定位相关人员。
以上实施例不以任何方式限定本发明,凡是对以上实施例以等效变换方式做出的其它改进与应用,都属于本发明的保护范围。
Claims (5)
1.一种人体及人脸属性识别方法,其特征在于,包括如下步骤:
步骤一:准备数据集,所述数据集包括两部分:人体属性数据集和人脸属性数据集;
步骤二:基于人体属性数据集,利用深度神经网络训练人体属性识别模型,并对模型进行评估及优化;
步骤三:基于人脸属性数据集,训练人脸属性识别模型,并对模型进行评估和优化;
步骤四:整合人脸属性和人体属性模型;对于待识别的图片Image,检测人脸,利用程序脚本将人脸图片自动裁剪输出为image_face,然后调用人脸属性识别模型,得到输出结果dict1,与此同时,对于待识别图片直接调用人体属性识别模型,得到输出结果dict2;
步骤五:将输出结果dict1与dict2融合成一个输出结果集:dict:{face_attribute:True or False,…,pedestrian_attribute:True or False,…}。
2.如权利要求1所述的一种人体及人脸属性识别方法,其特征在于:所述步骤一中,所述人体属性数据集来自于PETA数据集,具体是从PETA数据集中选出35个属性进行识别;所述人脸属性数据集来自于CelebA数据集。
3.如权利要求2所述的一种人体及人脸属性识别方法,其特征在于:所述步骤二具体为:基于PETA数据集,对于每一张输入图片Image,输出为一个dict:{pedestrian_attribute:True or False},如果结果字典为:{pedestrian_attribute:True}表示图片中的人有人体属性,如果结果字典为:{pedestrian_attribute:False}表示图片中的人没有人体属性,利用深度神经网络训练人体属性识别模型,使得
F(Image)={pedestrian_attribute:True or False};
对模型进行测试,如果模型准确率低于可用阈值Threshold(F),所述可用阈值设为0.8,则优化数据集或模型,重新训练,直到模型可用。
4.如权利要求3所述的一种人体及人脸属性识别方法,其特征在于:所述步骤三具体为:基于CelebA数据集,对于每一张输入图片Image,输出为一个dict:{face_attribute:True or False},如果结果字典为:{face_attribute:True}表示图片中的人有人脸属性,如果结果字典为:{face_attribute:False}表示图片中的人没有人脸属性,利用深度神经网络训练人脸属性识别模型,使得
F(Image)={face_attribute:True or False};
对模型进行测试,如果模型准确率低于可用阈值Threshold(F),所述可用阈值设为0.8,则优化数据集或模型,重新训练,直到模型可用。
5.一种根据权利要求1-4之一所述方法进行的人体及人脸属性识别系统,其特征在于:包括:数据源模块、模型训练模块、属性识别模块;
所述数据源模块,用于训练人体属性识别和人脸属性识别模型所需要准备的数据集,主要包括:用于人体属性识别训练的PETA数据集和用于人脸属性识别训练的CelebA数据集;
所述模型训练模块,利用深度神经网络训练人体属性识别模型和人脸属性识别模型,其中包括四个子模块:人体属性识别模型训练子模块,人体属性识别模型子模块,人脸属性识别模型训练子模块,人脸识别模型子模块;所述人体属性识别模型训练子模块,是根据PETA数据集,利用深度神经网络训练人体属性识别模型;所述人体属性识别模型子模块,是对模型进行评估及优化,最终得到可用的人体属性识别模型;所述人脸属性识别模型训练子模块,是根据CelebA数据集,利用深度神经网络训练人脸属性识别模型;所述人脸属性识别模型子模块,是对模型进行评估及优化,最终得到可用的人脸属性识别模型;
所述属性识别模块,提供人体属性和人脸属性识别的综合接口,接收待识别的图片,通过调用模型最终返回有关的人体属性和人脸属性;其中包括五个子模块:待识别图片接收子模块,人体属性识别子模块,人脸检测子模块,人脸属性识别子模块,识别信息返回子模块。所述待识别图片接收子模块,用于接收待识别的图片信息;所述人体属性识别子模块,对于待识别的图片,调用人体属性识别模型,得到有关人体属性;所述人脸检测子模块,对于待识别的图片,检测人脸,进行裁剪输出图片;所述人脸属性识别子模块,对于输出的人脸图片,调用人脸属性识别模型,得到图片中人脸的相关属性;所述识别信息返回子模块,将最终识别的属性信息整合并返回。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910530164.8A CN110245712A (zh) | 2019-06-19 | 2019-06-19 | 一种人体及人脸属性识别方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910530164.8A CN110245712A (zh) | 2019-06-19 | 2019-06-19 | 一种人体及人脸属性识别方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110245712A true CN110245712A (zh) | 2019-09-17 |
Family
ID=67888001
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910530164.8A Withdrawn CN110245712A (zh) | 2019-06-19 | 2019-06-19 | 一种人体及人脸属性识别方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110245712A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112784680A (zh) * | 2020-12-23 | 2021-05-11 | 中国人民大学 | 一种人流密集场所锁定密集接触者的方法和系统 |
CN115457644A (zh) * | 2022-11-10 | 2022-12-09 | 成都智元汇信息技术股份有限公司 | 一种基于扩展空间映射获得目标的识图方法及装置 |
-
2019
- 2019-06-19 CN CN201910530164.8A patent/CN110245712A/zh not_active Withdrawn
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112784680A (zh) * | 2020-12-23 | 2021-05-11 | 中国人民大学 | 一种人流密集场所锁定密集接触者的方法和系统 |
CN112784680B (zh) * | 2020-12-23 | 2024-02-02 | 中国人民大学 | 一种人流密集场所锁定密集接触者的方法和系统 |
CN115457644A (zh) * | 2022-11-10 | 2022-12-09 | 成都智元汇信息技术股份有限公司 | 一种基于扩展空间映射获得目标的识图方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Vittayakorn et al. | Runway to realway: Visual analysis of fashion | |
CN106650806B (zh) | 一种用于行人检测的协同式深度网络模型方法 | |
CN108229330A (zh) | 人脸融合识别方法及装置、电子设备和存储介质 | |
CN106778506A (zh) | 一种融合深度图像和多通道特征的表情识别方法 | |
CN111597870B (zh) | 一种基于注意力机制与多任务学习的人体属性识别方法 | |
CN108596046A (zh) | 一种基于深度学习的细胞检测计数方法及系统 | |
CN104143079A (zh) | 人脸属性识别的方法和系统 | |
CN107341688A (zh) | 一种客户体验的采集方法及系统 | |
CN102426652A (zh) | 基于图像分析的中医面色识别和检索方法 | |
CN104036247A (zh) | 基于脸部特征的人脸种族分类方法 | |
CN106599800A (zh) | 一种基于深度学习的人脸微表情识别方法 | |
CN109214376A (zh) | 一种基于深度层次化的指纹识别方法及装置 | |
CN103984919A (zh) | 基于粗糙集与混合特征的人脸表情识别方法 | |
CN105184266B (zh) | 一种手指静脉图像识别方法 | |
CN103632147A (zh) | 实现面部特征标准化语义描述的系统及方法 | |
CN109919177A (zh) | 基于层次化深度网络的特征选择方法 | |
CN109213853A (zh) | 一种基于cca算法的中文社区问答跨模态检索方法 | |
CN109431523A (zh) | 基于非社会性声音刺激行为范式的孤独症初级筛查装置 | |
CN111563452A (zh) | 一种基于实例分割的多人体姿态检测及状态判别方法 | |
CN105117708A (zh) | 人脸表情识别的方法和装置 | |
CN107330393A (zh) | 一种基于视频分析的新生儿疼痛表情识别方法 | |
CN108256579A (zh) | 一种基于先验知识的多模态民族认同感量化测量方法 | |
CN110348494A (zh) | 一种基于双通道残差神经网络的人体动作识别方法 | |
CN109034090A (zh) | 一种基于肢体动作的情感识别系统及方法 | |
CN110245712A (zh) | 一种人体及人脸属性识别方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20190917 |
|
WW01 | Invention patent application withdrawn after publication |