CN110472611A - 人物属性识别的方法、装置、电子设备及可读存储介质 - Google Patents

人物属性识别的方法、装置、电子设备及可读存储介质 Download PDF

Info

Publication number
CN110472611A
CN110472611A CN201910776337.4A CN201910776337A CN110472611A CN 110472611 A CN110472611 A CN 110472611A CN 201910776337 A CN201910776337 A CN 201910776337A CN 110472611 A CN110472611 A CN 110472611A
Authority
CN
China
Prior art keywords
attribute
attribute recognition
target
result
target person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910776337.4A
Other languages
English (en)
Inventor
黎子骏
卢毅
廖家聪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Atlas Future (nanjing) Artificial Intelligence Research Institute Co Ltd
Original Assignee
Atlas Future (nanjing) Artificial Intelligence Research Institute Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Atlas Future (nanjing) Artificial Intelligence Research Institute Co Ltd filed Critical Atlas Future (nanjing) Artificial Intelligence Research Institute Co Ltd
Priority to CN201910776337.4A priority Critical patent/CN110472611A/zh
Publication of CN110472611A publication Critical patent/CN110472611A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Abstract

本申请实施例提供一种人物属性识别的方法、装置、电子设备及可读存储介质,该方法包括:获取待识别的目标图像;检测所述目标图像中是否包含目标人物的全身区域,获得第一检测结果;检测所述目标图像中是否包含所述目标人物的人脸区域,获得第二检测结果;根据所述第一检测结果与所述第二检测结果确定属性识别方式;根据所述属性识别方式对所述目标图像中的所述目标人物进行属性识别,获得属性识别结果。该方案中可以根据采集的图像中人物的实际情况来确定对应的识别方式,进而可以采用较好的识别方式来对目标人物进行识别,以有效提高属性识别的准确性,获得较好的识别效果。

Description

人物属性识别的方法、装置、电子设备及可读存储介质
技术领域
本申请涉及图像识别技术领域,具体而言,涉及一种人物属性识别的方法、装置、电子设备及可读存储介质。
背景技术
人物属性识别是对人物的性别、年龄、衣服的颜色或类型等的识别,其被广泛应用于监控、人物识别等领域。
目前采用的属性识别方式是对采集的图像中人物的人脸进行识别,但是现在越来越多的人长得比较中性,所以性别不同的两个人其面部特征可能存在相似之处,若仅采用面部特征进行属性识别时,可能造成属性识别不准确的问题。且在很多情况下采集的图像中人物的人脸并不是很清晰,或者图像中人物的人脸并不完整,如仅是侧面,若也采用人脸特征进行属性识别获得的识别效果也并不好。
发明内容
有鉴于此,本申请实施例的目的在于提供一种人物属性识别的方法、装置、电子设备及可读存储介质,以改善现有技术中仅根据人脸进行属性识别获得的识别效果不好的问题。
第一方面,本申请实施例提供了一种人物属性识别的方法,所述方法包括:获取待识别的目标图像;检测所述目标图像中是否包含目标人物的全身区域,获得第一检测结果;检测所述目标图像中是否包含所述目标人物的人脸区域,获得第二检测结果;根据所述第一检测结果与所述第二检测结果确定属性识别方式;根据所述属性识别方式对所述目标图像中的所述目标人物进行属性识别,获得属性识别结果。
在上述实现过程中,通过先检测目标图像中是否包含有目标人物的全身区域和/或人脸区域,根据对应的检测结果确定属性识别方式,然后根据属性识别方式对目标人物进行属性识别,从而可以根据采集的图像中人物的实际情况来确定对应的识别方式,进而可以采用较好的识别方式来对目标人物进行识别,以有效提高属性识别的准确性,获得较好的识别效果。
可选地,所述根据所述第一检测结果与所述第二检测结果确定属性识别方式,包括:若所述第一检测结果为所述目标图像中包含所述目标人物的全身区域且所述第二检测结果为所述目标图像中包含所述目标人物的人脸区域时,则确定所述属性识别方式为基于所述目标图像中的所述目标人物的全身区域以及所述目标图像中的所述目标人物的人脸区域对所述目标人物进行属性识别。
在上述实现过程中,当目标图像中包括目标人物的全身区域和人脸区域中,采用对全身区域和人脸区域的属性识别方式可以有效提高属性识别的准确性。
可选地,所述根据所述属性识别方式对所述目标图像中的所述目标人物进行属性识别,获得属性识别结果,包括:利用预先训练的第一属性识别模型对所述目标图像中的所述目标人物的全身区域进行属性识别,获得第一属性识别结果;利用预先训练的第二属性识别模型对所述目标图像中的所述目标人物的人脸区域进行属性识别,获得第二属性识别结果;根据所述第一属性识别结果与所述第二属性识别结果确定针对所述目标人物的属性识别结果。
在上述实现过程中,由于两个属性识别模型均是通过训练获得的,由此通过两个属性识别模型各自进行属性识别,可获得较好的识别效果。
可选地,所述根据所述第一属性识别结果与所述第二属性识别结果确定针对所述目标人物的属性识别结果,包括:将所述第一属性识别结果中目标属性的取值为目标属性值的概率与所述第二属性识别结果中所述目标属性的取值为所述目标属性值的概率相加获得的属性值的概率之和作为所述目标人物的属性识别结果中所述目标属性值的概率。
在上述实现过程中,将两个属性识别结果中相同属性的目标属性值的概率之和作为最终的属性识别结果,从而可综合两个识别结果的情况,进而提高了属性识别的准确性。
可选地,所述第一检测结果包括所述目标图像中包含所述目标人物的全身区域的置信度,所述第二检测结果包括所述目标图像中包含所述目标人物的人脸区域的置信度,所述根据所述第一属性识别结果与所述第二属性识别结果确定针对所述目标人物的属性识别结果,包括:将所述第一属性识别结果中目标属性的取值为目标属性值的概率与所述目标人物的全身区域的置信度相乘,获得所述目标属性值的第一目标概率,将所述第二属性识别结果中所述目标属性的取值为所述目标属性值的概率与所述目标人物的人脸区域的置信度相乘,获得所述目标属性值的第二目标概率;将所述第一目标概率与所述第二目标概率相加获得的属性值的概率之和作为所述目标人物的属性识别结果中所述目标属性值的概率。
在上述实现过程中,设置置信度可以避免在全身区域或人脸区域不完整时对识别效果的影响。
可选地,所述第一属性识别模型与所述第二属性识别模型均为卷积神经网络模型。
可选地,所述获取待识别的目标图像之前,所述方法还包括:获取包含有人物的全身区域的多张第一训练图像,每张第一训练图像标注有对应的第一识别结果,所述第一识别结果包括多个属性以及每个所述属性的属性值的概率;将所述多张第一训练图像作为所述第一属性识别模型的输入,将所述第一识别结果作为所述第一属性识别模型的输出,对所述第一属性识别模型进行训练,通过第一交叉损失函数对训练结果进行评价,获得第一评价结果;根据所述第一评价结果更新所述第一属性识别模型中各个参数的权重,获得训练好的所述第一属性识别模型。
在上述实现过程中,通过对第一属性识别模型进行训练,从而在实际应用时,通过第一属性识别模型进行属性识别可以获得较好的识别效果。
可选地,所述获取待识别的目标图像之前,所述方法还包括:获取包含有人物的人脸区域的多张第二训练图像,每张第二训练图像标注有对应的第二属性识别结果,所述第二属性识别结果包括多个属性以及每个所述属性的属性值的概率;将所述多张第二训练图像作为所述第二属性识别模型的输入,将所述第二属性识别结果作为所述第二属性识别模型的输出,对所述第二属性识别模型进行训练,通过第二交叉损失函数对训练结果进行评价,获得第二评价结果;根据所述第二评价结果更新所述第二属性识别模型中各个参数的权重,获得训练好的所述第二属性识别模型。
在上述实现过程中,通过对第二属性识别模型进行训练,从而在实际应用时,通过第二属性识别模型进行属性识别可以获得较好的识别效果。
可选地,所述根据所述第一检测结果与所述第二检测结果确定属性识别方式,包括:若所述第一检测结果为所述目标图像中包含所述目标人物的全身区域且所述第二检测结果为所述目标图像中不包含所述目标人物的人脸区域,则确定所述属性识别方式为基于所述目标图像中的所述目标人物的全身区域对所述目标人物进行属性识别;所述根据所述属性识别方式对所述目标图像中的所述目标人物进行属性识别,获得属性识别结果,包括:利用预先训练的第一属性识别模型对所述目标图像中的所述目标人物的全身区域进行属性识别,获得属性识别结果。
在上述实现过程中,当目标图像中只包括目标人物的全身区域时,仅采用第一属性识别模型对目标人物的全身区域进行属性识别的方式可以有效减少识别过程中的数据处理量。
可选地,所述根据所述第一检测结果与所述第二检测结果确定属性识别方式,包括:若所述第一检测结果为所述目标图像中不包含所述目标人物的全身区域且所述第二检测结果为所述目标图像中包含所述目标人物的人脸区域,则确定所述属性识别方式为基于所述目标图像中的所述目标人物的人脸区域对所述目标人物进行属性识别;所述根据所述属性识别方式对所述目标图像中的所述目标人物进行属性识别,获得属性识别结果,包括:利用预先训练的第二属性识别模型对所述目标图像中的所述目标人物的人脸区域进行属性识别,获得属性识别结果。
在上述实现过程中,当目标图像中只包括目标人物的人脸区域时,仅采用第二属性识别模型对目标人物的人脸区域进行属性识别的方式可以有效减少识别过程中的数据处理量。
可选地,所述根据所述第一检测结果与所述第二检测结果确定属性识别方式,包括:若所述第一检测结果为所述目标图像中包含所述目标人物的全身区域且所述第二检测结果为所述目标图像中不包含所述目标人物的人脸区域,则确定所述属性识别方式为基于所述目标图像中的所述目标人物的全身区域对所述目标人物进行属性识别;所述根据所述属性识别方式对所述目标图像中的所述目标人物进行属性识别,获得属性识别结果,包括:利用预先训练的第一属性识别模型对所述目标图像中的所述目标人物的全身区域进行属性识别,获得第一属性识别结果;利用预先训练的第二属性识别模型对所述目标图像中的所述目标人物的人脸区域进行属性识别,获得第二属性识别结果;根据所述第一属性识别结果和所述第二属性识别结果确定所述目标人物的属性识别结果。
在上述实现过程中,在检测到目标图像中仅包含目标人物的全身区域时,也采用两个属性识别模型对其进行属性识别,从而可以避免对目标图像进行检测时获得错误的检测结果导致识别结果不准确的问题。
可选地,所述根据所述第一检测结果与所述第二检测结果确定属性识别方式,包括:若所述第一检测结果为所述目标图像中不包含所述目标人物的全身区域且所述第二检测结果为所述目标图像中包含所述目标人物的人脸区域,则确定所述属性识别方式为基于所述目标图像中的所述目标人物的人脸区域对所述目标人物进行属性识别;所述根据所述属性识别方式对所述目标图像中的所述目标人物进行属性识别,获得属性识别结果,包括:利用预先训练的第一属性识别模型对所述目标图像中的所述目标人物的全身区域进行属性识别,获得第一属性识别结果;利用预先训练的第二属性识别模型对所述目标图像中的所述目标人物的人脸区域进行属性识别,获得第二属性识别结果;根据所述第二属性识别结果和所述第二属性识别结果确定所述目标人物的属性识别结果。
在上述实现过程中,在检测到目标图像中仅包含目标人物的人脸区域时,也采用两个属性识别模型对其进行属性识别,从而可以避免对目标图像进行检测时获得错误的检测结果导致识别结果不准确的问题。
可选地,所述检测所述目标图像中是否包含所述目标人物的全身区域,获得第一检测结果,包括:采用预设训练的门控卷积神经网络模型检测所述目标图像中是否包含所述目标人物的全身区域,获得第一检测结果;所述检测所述目标图像中是否包含所述目标人物的人脸区域,获得第二检测结果,包括:利用预先训练的所述门控卷积神经网络模型检测所述目标图像中是否包含所述目标人物的人脸区域,获得第二检测结果。
在上述实现过程中,由于门控卷积神经网络为预先训练获得的,采用门控卷积神经网络对目标图像进行检测,可有效提高检测结果的准确性。
第二方面,本申请实施例提供了一种人物属性识别的装置,所述装置包括:
图像获取模块,用于获取待识别的目标图像;
第一检测模块,用于检测所述目标图像中是否包含目标人物的全身区域,获得第一检测结果;
第二检测模块,用于检测所述目标图像中是否包含所述目标人物的人脸区域,获得第二检测结果;
识别方式确定模块,用于根据所述第一检测结果与所述第二检测结果确定属性识别方式;
属性识别模块,用于根据所述属性识别方式对所述目标图像中的所述目标人物进行属性识别,获得属性识别结果。
可选地,所述识别方式确定模块,具体用于若所述第一检测结果为所述目标图像中包含所述目标人物的全身区域且所述第二检测结果为所述目标图像中包含所述目标人物的人脸区域时,则确定所述属性识别方式为基于所述目标图像中的所述目标人物的全身区域以及所述目标图像中的所述目标人物的人脸区域对所述目标人物进行属性识别。
可选地,所述属性识别模块,具体用于:
利用预先训练的第一属性识别模型对所述目标图像中的所述目标人物的全身区域进行属性识别,获得第一属性识别结果;
利用预先训练的第二属性识别模型对所述目标图像中的所述目标人物的人脸区域进行属性识别,获得第二属性识别结果;
根据所述第一属性识别结果与所述第二属性识别结果确定针对所述目标人物的属性识别结果。
可选地,所述属性识别模块,还用于将所述第一属性识别结果中目标属性的取值为目标属性值的概率与所述第二属性识别结果中所述目标属性的取值为所述目标属性值的概率相加获得的属性值的概率之和作为所述目标人物的属性识别结果中所述目标属性值的概率。
可选地,所述第一检测结果包括所述目标图像中包含所述目标人物的全身区域的置信度,所述第二检测结果包括所述目标图像中包含所述目标人物的人脸区域的置信度,所述属性识别模块,还用于将所述第一属性识别结果中目标属性的取值为目标属性值的概率与所述目标人物的全身区域的置信度相乘,获得所述目标属性值的第一目标概率,将所述第二属性识别结果中所述目标属性的取值为所述目标属性值的概率与所述目标人物的人脸区域的置信度相乘,获得所述目标属性值的第二目标概率;将所述第一目标概率与所述第二目标概率相加获得的概率之和作为所述目标人物的属性识别结果中所述目标属性值的概率。
可选地,所述第一属性识别模型与所述第二属性识别模型均为卷积神经网络模型。
可选地,所述装置还包括:
第一训练模块,用于:
获取包含有人物的全身区域的多张第一训练图像,每张第一训练图像标注有对应的第一识别结果,所述第一识别结果包括多个属性以及每个所述属性的属性值的概率;
将所述多张第一训练图像作为所述第一属性识别模型的输入,将所述第一识别结果作为所述第一属性识别模型的输出,对所述第一属性识别模型进行训练,通过第一交叉损失函数对训练结果进行评价,获得第一评价结果;
根据所述第一评价结果更新所述第一属性识别模型中各个参数的权重,获得训练好的所述第一属性识别模型。
可选地,所述装置还包括:
第二训练模块,用于:
获取包含有人物的人脸区域的多张第二训练图像,每张第二训练图像标注有对应的第二属性识别结果,所述第二属性识别结果包括多个属性以及每个所述属性的属性值的概率;
将所述多张第二训练图像作为所述第二属性识别模型的输入,将所述第二属性识别结果作为所述第二属性识别模型的输出,对所述第二属性识别模型进行训练,通过第二交叉损失函数对训练结果进行评价,获得第二评价结果;
根据所述第二评价结果更新所述第二属性识别模型中各个参数的权重,获得训练好的所述第二属性识别模型。
可选地,所述识别方式确定模块,具体用于若所述第一检测结果为所述目标图像中包含所述目标人物的全身区域且所述第二检测结果为所述目标图像中不包含所述目标人物的人脸区域,则确定所述属性识别方式为基于所述目标图像中的所述目标人物的全身区域对所述目标人物进行属性识别;
所述属性识别模块,具体用于利用预先训练的第一属性识别模型对所述目标图像中的所述目标人物的全身区域进行属性识别,获得属性识别结果。
可选地,所述识别方式确定模块,具体用于若所述第一检测结果为所述目标图像中不包含所述目标人物的全身区域且所述第二检测结果为所述目标图像中包含所述目标人物的人脸区域,则确定所述属性识别方式为基于所述目标图像中的所述目标人物的人脸区域对所述目标人物进行属性识别;
所述属性识别模块,具体用于利用预先训练的第二属性识别模型对所述目标图像中的所述目标人物的人脸区域进行属性识别,获得属性识别结果。
可选地,所述识别方式确定模块,具体用于若所述第一检测结果为所述目标图像中包含所述目标人物的全身区域且所述第二检测结果为所述目标图像中不包含所述目标人物的人脸区域,则确定所述属性识别方式为基于所述目标图像中的所述目标人物的全身区域对所述目标人物进行属性识别;
所述属性识别模块,具体用于利用预先训练的第一属性识别模型对所述目标图像中的所述目标人物的全身区域进行属性识别,获得第一属性识别结果;利用预先训练的第二属性识别模型对所述目标图像中的所述目标人物的人脸区域进行属性识别,获得第二属性识别结果;根据所述第一属性识别结果和所述第二属性识别结果确定所述目标人物的属性识别结果。
可选地,所述识别方式确定模块,具体用于若所述第一检测结果为所述目标图像中不包含所述目标人物的全身区域且所述第二检测结果为所述目标图像中包含所述目标人物的人脸区域,则确定所述属性识别方式为基于所述目标图像中的所述目标人物的人脸区域对所述目标人物进行属性识别;
所述属性识别模块,具体用于利用预先训练的第一属性识别模型对所述目标图像中的所述目标人物的全身区域进行属性识别,获得第一属性识别结果;利用预先训练的第二属性识别模型对所述目标图像中的所述目标人物的人脸区域进行属性识别,获得第二属性识别结果;根据所述第二属性识别结果和所述第二属性识别结果确定所述目标人物的属性识别结果。
可选地,所述第一检测模块,具体用于采用预设训练的门控卷积神经网络模型检测所述目标图像中是否包含所述目标人物的全身区域,获得第一检测结果;
所述第二检测模块,具体用于利用预先训练的所述门控卷积神经网络模型检测所述目标图像中是否包含所述目标人物的人脸区域,获得第二检测结果。
第三方面,本申请实施例提供一种电子设备,包括处理器以及存储器,所述存储器存储有计算机可读取指令,当所述计算机可读取指令由所述处理器执行时,运行如上述第一方面提供的所述方法中的步骤。
第四方面,本申请实施例提供一种可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时运行如上述第一方面提供的所述方法中的步骤。
本申请的其他特征和优点将在随后的说明书阐述,并且,部分地从说明书中变得显而易见,或者通过实施本申请实施例了解。本申请的目的和其他优点可通过在所写的说明书、权利要求书、以及附图中所特别指出的结构来实现和获得。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本申请的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本申请实施例提供的一种电子设备的结构示意图;
图2为本申请实施例提供的一种人物属性识别的方法的流程图;
图3为本申请实施例提供的一种目标图像中包括目标人物的全身区域的各种示意图;
图4为本申请实施例提供的其中一种人物属性识别的方法的实施例的示意图;
图5为本申请实施例提供的一种人物属性识别的装置的结构框图。
具体实施方式
下面将结合本申请实施例中附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本申请实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本申请的实施例的详细描述并非旨在限制要求保护的本申请的范围,而是仅仅表示本申请的选定实施例。基于本申请的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本申请保护的范围。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。同时,在本申请的描述中,术语“第一”、“第二”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
请参照图1,图1为本申请实施例提供的一种电子设备的结构示意图,所述电子设备可以包括:至少一个处理器110,例如CPU,至少一个通信接口120,至少一个存储器130和至少一个通信总线140。其中,通信总线140用于实现这些组件直接的连接通信。其中,本申请实施例中设备的通信接口120用于与其他节点设备进行信令或数据的通信。存储器130可以是高速RAM存储器,也可以是非不稳定的存储器(non-volatile memory),例如至少一个磁盘存储器。存储器130可选的还可以是至少一个位于远离前述处理器的存储装置。存储器130中存储有计算机可读取指令,当所述计算机可读取指令由所述处理器110执行时,电子设备执行下述图2所示方法过程。
本申请实施例所指的人物属性是指能够被计算机或人感知的人体视觉特征,如年龄、性别、衣服颜色、衣服类型等,其中每个属性又可以对应不同的属性值,如性别的属性值为男或女;年龄的属性值为儿童、青年、中年和老年等;年龄的属性值也可分为各个年龄段,如0-10岁,11-20岁,21-30岁,31-50岁等;衣服颜色又可分为上衣颜色和下衣颜色,可以其属性值可以为白色、红色、绿色等颜色;衣服类型的属性值可以为上下衣纹理、上下衣长短等,如裙子、裤子、短袖T恤,长款大衣等。这些人物属性及其对应的属性值可以根据实际需求进行预先定义。
本申请实施例提供的人物属性识别的方法可以应用于多种场景,如视频监控场景或者人物识别场景等,监控场景如危险行为监控、交通违章监控、自动存取款机、商场和车站等公共场所的监控等,需要说明的是,上述提及的应用场景只是为了便于理解本申请的原理而举例说明的,本申请在应用场景方面可不受限制,即本申请实施例可应用于任何适用的场景。
请参照图2,图2为本申请实施例提供的一种人物属性识别的方法的流程图,所述方法包括如下步骤:
步骤S110:获取待识别的目标图像。
其中,目标图像可以是用于监控的摄像头任意拍取的图像,即可以是当前需要进行属性识别的图像。该目标图像可以是电子设备主动从摄像头获取的,也可以是摄像头直接发送给电子设备的。
步骤S120:检测所述目标图像中是否包含目标人物的全身区域,获得第一检测结果。
应理解,本申请中,目标人物可以是固定的某个人,也可不是固定的某个人,例如,可以是女人、男人,也可以是小孩、成年人、老人等等,本申请实施例并不限于此。
还应理解,当目标图像中包括多个人物的时候,该目标人物可以是该多个人物中的任意一个人或者指定的某个人。
当目标图像中包括多个人物的时候,本申请实施例可以对目标图像中的每个人通过本申请实施例提供属性识别方法来识别每个人的属性。
由于目标图像一般为随机拍取的图像,所以目标图像中可能只包括目标人物的部分区域,如只包括人脸区域和上半身区域,或者包括除人脸外的其他区域。可以理解地,在人脸的朝向为背向摄像头时,此时拍取的图像中可能没有人脸,但是其包括了人物的其他身体区域,所以为了更为准确地对目标图像中的目标人物进行属性识别,还需检测目标图像中的目标人物包含的人体区域是否是全身区域或者人脸区域,或者包含全身区域和人脸区域,或者两种均不包含。
其中,目标人物的全身区域是指目标人物的全部身体区域,但是由于拍摄的限制,其拍摄的图像中可能并不能完整地包括目标人物的全部身体区域,所以目标人物的全身区域可以仅包括大部分的头部、上半身和下半身即可。
可以理解地,如图3所示,其展示了目标图像中包括目标人物的全身区域的各种示意图,例如,若目标图像中包括目标人物的头部、上半身和下半身的全部或大部分即可认为目标图像中包括目标人物的全身区域。也就是,若满足下述条件时,即可确定目标图像中包含目标人物的全身区域:1.完全拍摄到目标人物的全身区域如图3中的图像a所示,即目标人物的头部、身体躯干及四肢均没有被遮挡,且全部拍摄在目标图像中:2.大部分区域可以理解为如没有完全拍摄到目标人物的上半身,即只有上半身的小部分被遮挡或者没被拍摄到,如图3中的图像b所示;3.或者没有完全拍摄到目标人物的下半身,即只有下半身的小部分被遮挡或者没被拍摄到,如图3中的图像c所示;4.或者没有完全拍摄到目标人物的头部,如图3中的图像d所示。
应理解,图3仅仅示出了部分示意图,在实际情况中,还存在很多其他情况,所以,对于其他情况也可以根据上述条件来确定目标图像中是否包含目标人物的全身区域。
需要说明的是,在确定目标图像中是否包含目标人物的全身区域时,无论目标人物的身体朝向是正面、侧面、斜侧面还是背面,只要其符合上述条件时,均可认为目标图像中包含目标人物的全身区域。
其中,目标图像中不包含目标人物的全身区域的情况为目标人物仅包括头部区域,或者仅包括头部及上半身区域,或者仅包括头部及下半身区域,或者仅包括上半身区域,或者仅包括下半身区域,或者仅包括上半身及下半身区域等情况,也就是说,若头部、上半身及下半身这三者中至少一者不包括时,则确定目标图像中不包含目标人物的全身区域。
在通过上述方式对目标图像进行检测后,获得的第一检测结果可以为目标图像中不包含目标人物的全身区域,或者目标图像中包含目标人物的全身区域。
步骤S130:检测所述目标图像中是否包含所述目标人物的人脸区域,获得第二检测结果。
其中,目标人物的人脸区域是指包含有全部目标人物的人脸或者部分目标人物的人脸,则可确定目标图像中包括目标人物的人脸区域,如图3中所示,其均包含有目标人物的人脸区域。
只有在目标人物的人脸完全背对摄像头拍摄的目标图像中没有目标人物的人脸区域,或者目标图像中没有包含目标人物的头部区域时,则目标图像中也没有包含目标人物的人脸区域。
上述对人脸区域或全身区域进行检测的方式可以通过图像识别方法,即识别出目标图像中是否有目标人物的人脸区域或全身区域。在对人脸区域进行检测后获得的第二检测结果可以为目标图像中包含目标人物的人脸区域或者目标图像中不包含目标人物的人脸区域。
需要说明的是,上述步骤S120与步骤S130的执行顺序可不做限定,即可以先执行步骤S120,后执行步骤S130,或者也可以先执行步骤S130,后执行步骤S120,或者也可以两个步骤同时执行。
步骤S140:根据所述第一检测结果与所述第二检测结果确定属性识别方式。
属性识别方式为采用哪种方式对目标图像中的目标人物进行属性识别,例如,在上述第一检测结果为目标图像中不包含目标人物的全身区域且包含目标人物的人脸区域,则属性识别方式可以为针对目标人物的人脸区域对目标人物进行属性识别。
步骤S150:根据所述属性识别方式对所述目标图像中的所述目标人物进行属性识别,获得属性识别结果。
在通过上述方法确定出属性识别方式后,可基于对应的属性识别方式对目标人物进行属性识别,获得属性识别结果。其中,属性识别结果可以包括目标人物的多个属性,以及各个属性的属性值的概率,例如,多个属性包括性别、年龄和衣服颜色等,性别的属性值为男和女,年龄的属性值为老年、青年、中年和儿童,其属性值的概率如性别为男的概率为0.8,衣服颜色为白色的概率为0.9,年龄段属于中年的概率为0.6等。
在上述实现过程中,通过先检测目标图像中是否包含有目标人物的全身区域和/或人脸区域,根据对应的检测结果确定属性识别方式,然后根据属性识别方式对目标人物进行属性识别,从而可以根据采集的图像中人物的实际情况来确定对应的识别方式,进而可以采用较好的识别方式来对目标人物进行识别,以有效提高属性识别的准确性,获得较好的识别效果。
作为一种示例,为了提高属性识别的准确性,可针对目标图像中目标人物的不同情况确定对应的属性识别方式。例如,若第一检测结果为目标图像中包含目标人物的全身区域且第二检测结果为目标图像中包含目标人物的人脸区域时,则确定属性识别方式为基于目标图像中的目标人物的全身区域以及目标人物的人脸区域对目标人物进行属性识别。
可以理解地,在进行属性识别时,可针对目标图像中目标人物的全身区域进行属性识别获得一个属性识别结果,还可针对目标图像中目标人物的人脸区域进行属性识别获得一个属性识别结果,综合两个属性识别结果可确定目标人物最终的属性识别结果。例如,全身区域可能包含有目标人物更多的特征,对于属性值为年龄来说,如果单看人脸的话,可能其识别准确性并不高,则可结合全身区域中目标人物的衣服颜色或其他特征来判断其年龄可能更为准确;如若对人脸区域进行属性识别获得目标人物的年龄段为中年,但是基于全身区域进行属性识别获得目标人物的年龄段为青年,则综合这两个结果可确定目标人物的年龄可能在青年与中年之间,由此,基于两个识别结果来确定目标人物的属性的方式可以考虑到目标人物更多的属性特征,从而获得较为准确的识别结果。
在上述实现过程中,当目标图像中包括目标人物的全身区域和人脸区域中,采用对全身区域和人脸区域的属性识别方式可以有效提高属性识别的准确性。
在上述若确定属性识别方式为基于全身区域以及人脸区域对目标人物进行属性识别时,则可利用预先训练的第一属性识别模型对目标图像中的目标人物的全身区域进行属性识别,获得第一属性识别结果,以及利用预先训练的第二属性识别模型对目标图像中的目标人物的人脸区域进行属性识别,获得第二属性识别结果,然后根据第一属性识别结果与第二属性识别结果确定针对目标人物最终的属性识别结果。
其中,第一属性识别模型与第二属性识别模型均可为卷积神经网络模型,卷积神经网络(Convolutional Neural Network,CNN)是一种前馈神经网络,它的人工神经元可以响应一部分覆盖范围内的周围单元,其一般包括卷积层、池化层和全连接层。
第一属性识别模型为针对人物的全身区域进行属性识别的模型,其对全身区域的属性识别具有较好的效果,第二属性识别模型为针对人物的人脸区域进行属性识别的模型,其对人脸区域的属性识别具有较好的效果,所以,可以根据两个模型的属性识别结果确定针对目标人物最终的属性识别结果,从而可以获得更加准确的识别结果。
在上述实现过程中,由于两个属性识别模型均是通过训练获得的,由此通过两个属性识别模型各自进行属性识别,可获得较好的识别效果。
作为一种示例,通过第一属性识别模型可以获得目标人物的各个属性的属性值的概率以及通过第二属性识别模型也可以获得目标人物的各个属性的属性值的概率,则在确定目标人物最终的属性识别结果时,可以将第一属性结果中目标属性的取值为目标属性值的概率与第二属性识别结果中目标属性的取值为所述目标属性值的概率相加获得的属性值的概率之后作为目标人物的属性识别结果中所述目标属性值的概率。
其中,目标属性可以是第一属性识别结果中各个属性中的任一属性,目标属性值是指第一属性的各个属性值中的任一属性值。以目标属性为性别,目标属性值为男为例,若第一属性识别结果中目标属性值的概率为0.9,
第二属性识别结果中目标属性值的概率为0.3,则其概率之和为1.2,则目标人物的属性识别结果中的属性值为男的概率之和为1.2,又如第一属性识别结果中目标属性值为女,对应的概率为0.1,第二属性识别结果中目标属性值为女,其对应的概率为0.7,则目标人物的属性值为女的概率之和为0.8,对于其他属性的属性值也可按照该方式获得最终的属性值的概率,从而可作为目标人物最终的属性识别结果。
按照上述方式,目标人物的属性识别结果包括每个属性的各个属性值对应的概率。
需要说明的是,为了更加明确目标人物的属性值,由于每个属性对应有多个属性值,则在按照上述方式计算出每个属性值的概率之和后,可将概率最大的属性值作为目标人物最终的属性识别结果,如上述的属性值为男的概率之和为1.2,属性值为女的概率之和为0.8,则确定最终的属性识别结果中的属性值为男,即最终的属性识别结果包括目标人物为男性。
当然,如上述的若计算出属性值为女的概率之和与属性值为男的概率之和相同时,则最终的属性识别结果中对性别的属性识别结果为无法识别,即属性识别结果包括无法识别目标人物的性别。
在上述实现过程中,将两个属性识别结果中相同属性值的概率之和作为最终的属性识别结果,从而可综合两个识别结果的情况,进而提高了属性识别的准确性。
作为一种示例,由于目标图像可能无法包括目标人物完整的全身区域或人脸区域,所以在对目标人物的全身区域或人脸区域进行检测时,还可以设置对应的置信度,即若检测出目标图像中包括目标人物完整的全身区域时,则置信度为1,若检测出目标图像中包含目标人物部分的全身区域,即有少部分被遮挡,则置信度可以为小于1的值,对于检测人脸区域也可按照此方式设置对应的置信度。该置信度可以预先进行设置,如在设置全身区域的置信度时,可根据目标图像中目标人物的全身区域的面积与完整的全身区域的面积之比来设定对应的置信度,在设置人脸区域的置信度时,可根据目标图像中目标人物的人脸区域的面积与完整的人脸区域的面积之比来设置对应的置信度,如不同的比值范围对应了不同的置信度,在比值为1时,其置信度则为1。具体实现过程中,可基于检测获得目标图像中全身区域或人脸区域的轮廓,然后基于轮廓计算出其面积,再按照该目标图像中目标人物的轮廓预测出完整的全身区域或人脸区域的轮廓,由此可获得完整的全身区域或人脸区域的面积,进而可获得对应的置信度。
如此,第一检测结果可以包括目标图像中包含目标人物的全身区域的置信度,第二检测结果可以包括目标图像中包含目标人物的人脸区域的置信度。
所以,在确定目标人物最终的属性识别结果时,还可以将第一属性识别结果中目标属性的取值为目标属性值的概率与目标人物的全身区域的置信度相乘,获得目标属性值的第一目标概率,以及将第二属性识别结果中所述目标属性的取值为所述目标属性值的概率与目标人物的人脸区域的置信度相乘,获得目标属性值的第二目标概率,然后将第一目标概率与第二目标概率相加获得的概率之和作为目标人物的属性识别结果中所述目标属性值的概率。
例如,若第一属性识别结果中目标属性值为男,其概率为0.9,目标人物的全身区域的置信度为0.9,则第一属性识别结果中目标属性值的第一目标概率即为0.81,第一属性识别结果中目标属性值为男,其概率为0.7,目标人物的人脸区域的置信度为0.9,则第一属性识别结果中目标属性值的第二目标概率为0.63,这两个属性值的概率之和为1.44,作为目标人物最终的属性识别结果中属性值为男的概率。
当然,还可以将目标概率最大的属性值作为最终的属性识别结果,如上可将目标属性值:男,第一目标概率为:0.81,作为最终的属性识别结果,即最终的属性识别结果中包括目标人物为男性的概率为0.81。
在上述实现过程中,设置置信度可以避免在全身区域或人脸区域不完整时对识别效果的影响。
作为一种示例,若检测出目标图像中不包含目标人物的人脸区域时,则根据第一检测结果与第二检测确定属性识别方式还可以为:若第一检测结果为目标图像中包含目标人物的全身区域且第二检测结果为目标图像中不包含目标人物的人脸区域,则确定属性识别方式为基于目标图像中的目标人物的全身区域对目标人物进行属性识别,该种情况下,则可利用预先训练的第一属性识别模型对目标图像中的目标人物的全身区域进行属性识别,获得属性识别结果。
可以理解地,若当目标图像中只包括目标人物的全身区域,不包含人脸区域时,可无需再通过属性识别模型对人脸区域进行属性识别,仅采用第一属性识别模型对目标人物的全身区域进行属性识别的方式可以有效减少识别过程中的数据处理量。
作为一种示例,若检测出目标图像中不包含目标人物的全身区域时,则根据第一检测结果与第二检测确定属性识别方式还可以为:若第一检测结果为目标图像中不包含目标人物的全身区域且第二检测结果为目标图像中包含目标人物的人脸区域,则确定属性识别方式为基于目标图像中的目标人物的人脸区域对目标人物进行属性识别,该种情况下,则可利用预先训练的第二属性识别模型对目标图像中的目标人物的人脸区域进行属性识别,获得属性识别结果。
可以理解地,若目标图像中只包括目标人物的人脸区域,不包含全身区域时,可无需再通过模型对全身区域进行属性识别,仅采用第二属性识别模型对目标人物的人脸区域进行属性识别的方式可以有效减少识别过程中的数据处理量。
另外,为了避免检测结果出错造成识别效果不准确的问题,根据第一检测结果与第二检测确定属性识别方式还可以为:若第一检测结果为目标图像中包含目标人物的全身区域且第二检测结果为目标图像中不包含目标人物的人脸区域,则确定属性识别方式为基于目标图像中的目标人物的全身区域对目标人物进行属性识别,该种情况下,则可利用预先训练的第一属性识别模型对目标图像中的目标人物的全身区域进行属性识别,获得第一属性识别结果,还可利用预先训练的第二属性识别模型对目标图像中的目标人物的人脸区域进行属性识别,获得第二属性识别结果,然后根据第一属性识别结果和第二属性识别结果确定目标人物的属性识别结果。
例如,在确定最终的属性识别结果的过程中,若第一属性识别结果中属性值的概率小于第二属性识别结果中该属性值的概率,则可将第二属性结果确定为目标人物的属性识别结果。也就是说,此时也可根据两个属性识别结果中属性值的概率大小来确定最终的属性识别结果,即可将概率较大的属性值作为最终的属性识别结果。
例如,若第一属性识别结果中属性值为男的概率为0.8,第二属性识别结果中属性值为男的概率为0.3,则可将属性值为男的概率为0.8作为最终的属性识别结果。
当然,为了减少数据的计算量,由于目标图像中没有包含目标人物的人脸区域,若对人脸区域进行属性识别获得的结果可能准确度不高,则可以直接舍弃第二属性识别结果,直接将第一属性识别结果作为目标人物的属性识别结果即可。
在上述实现过程中,在检测到目标图像中仅包含目标人物的全身区域时,也采用两个属性识别模型对其进行属性识别,从而可以避免对目标图像进行检测时获得错误的检测结果导致识别结果不准确的问题。
同理,作为另一种示例,根据第一检测结果与第二检测确定属性识别方式还可以为:若第一检测结果为目标图像中不包含目标人物的全身区域且第二检测结果为目标图像中包含目标人物的人脸区域,则确定属性识别方式为基于目标图像中的目标人物的人脸区域对目标人物进行属性识别,该种情况下,则可利用预先训练的第一属性识别模型对目标图像中的目标人物的全身区域进行属性识别,获得第一属性识别结果,还可利用预先训练的第二属性识别模型对目标图像中的目标人物的人脸区域进行属性识别,获得第二属性识别结果,然后根据第一属性识别结果和第二属性识别结果确定目标人物的属性识别结果。
例如,在确定最终的属性识别结果的过程中,若第一属性识别结果中属性值的概率小于第二属性识别结果中该属性值的概率,则可将第二属性结果确定为目标人物的属性识别结果。也就是说,此时也可根据两个属性识别结果中属性值的概率大小来确定最终的属性识别结果,即可将概率较大的属性值作为最终的属性识别结果。
例如,若第一属性识别结果中属性值为男的概率为0.8,第二属性识别结果中属性值为男的概率为0.3,则可将属性值为男的概率为0.8作为最终的属性识别结果。
当然,为了减少数据的计算量,由于目标图像中没有包含目标人物的全身区域,若对全身区域进行属性识别获得的结果可能准确度不高,则可以直接舍弃第一属性识别结果,直接将第二属性识别结果作为目标人物的属性识别结果即可。
在上述实现过程中,在检测到目标图像中仅包含目标人物的人脸区域时,也采用两个属性识别模型对其进行属性识别,从而可以避免对目标图像进行检测时获得错误的检测结果导致识别结果不准确的问题。
需要说明的是,若目标图像中没有包含目标人物的全身区域以及人脸区域时,则可直接输出无法识别的识别结果,或者也可以将目标图像分别输入第一属性识别模型和第二属性识别模型中进行识别,两个模型分别输出对应的属性识别结果,然后根据两个属性识别结果确定最终的属性识别结果。
还需要说明的是,在检测出目标图像中包含全身区域时,在将目标图像输入第一属性识别模型之前,可检测获得全身区域的位置坐标,根据全身区域的位置坐标对目标图像进行裁剪,获得全身区域图像,然后将全身区域图像输入第一属性识别模型进行属性识别。同理,在检测出目标图像中包含人脸区域时,在将目标图像输入第二属性识别模型之前,可检测获得人脸区域的位置坐标,根据人脸区域的位置坐标对目标图像进行裁剪,获得人脸区域图像,然后将人脸区域图像输入第二属性识别模型进行属性识别,由此可减少模型的数据处理量。
另外,在上述实现过程中,属性识别模型在进行属性识别之前,还需要对模型进行训练,下面分别简单介绍两个属性识别模型的训练过程。对第一属性识别模型的训练过程如下:
先获取包含有人物的全身区域的多张第一训练图像,每张第一训练图像标注有对应的第一识别结果,该第一识别结果包括多个属性以及每个属性的属性值的概率,然后将多张第一训练图像作为第一属性识别模型的输入,将第一识别结果作为第一属性识别模型的输出,对第一属性识别模型进行训练,通过第一交叉损失函数对训练结果进行评价,获得第一评价结果,再根据第一评价结果更新第一属性识别模型中各个参数的权重,获得训练好的第一属性识别模型。
同理,在对第二属性识别模型进行训练的过程为:获取包含有人物的人脸区域的多张第二训练图像,每张第二训练图像标注有对应的第二属性识别结果,该第二属性识别结果包括多个属性以及每个属性的属性值的概率,然后将多张第二训练图像作为第二属性识别模型的输入,将第二属性识别结果作为第二属性识别模型的输出,对第二属性识别模型进行训练,通过第二交叉损失函数对训练结果进行评价,获得第二评价结果,再根据第二评价结果更新第二属性识别模型中各个参数的权重,获得训练好的第二属性识别模型。
具体地,多张第一训练图像或多张第二训练图像可以是直接从摄像头拍取的图像作为训练图像,该第一训练图像可以是人工筛选出来的包含有人物的全身区域的图像,第二训练图像也可以是人工筛选出来的包含有人物的人脸区域的图像,每张训练图像也可通过人工标注对应的属性识别结果。
例如,对于属性定义为性别、年龄、衣服颜色、衣服类型等,各个属性的属性值定义为:性别-男、女;年龄-儿童、青年、中年、老年,或0-5岁,6-15岁,15-25岁,26-35岁,36-45岁,46-60岁,60岁以上等年龄段;衣服颜色-白色、黑色、红色、绿色等,衣服类型-T恤、长款风衣、连衣裙等。
在定义各个属性的属性值后,可通过人工对训练图像进行判断,确定出训练图像中人物对应的各个属性值的概率,然后将其输入至属性识别模型中对属性识别模型进行训练。
以第一属性识别模型和第二属性识别模型均为卷积神经网络为例进行说明,该卷积神经网络为多属性卷积神经网络,该多属性卷积神经网络能够同时识别出人物的多个属性的属性值,其可以包括输入层、卷积计算层、激励层和全连接层,或者包括数据输入层、卷积计算层、激励层和全局平均池化层。
在训练时,先将多张训练图像输入多属性卷积神经网络的数据输入层,通过数据输入层对训练图像进行去均值、归一化等处理,然后通过卷积计算层对数据输入层输出的训练图像中的身体区域(如全身区域或人脸区域)进行特征提取,得到训练图像对应的各个特征矩阵,激励层对卷积计算层输出的各个特征均值进行非线性映射处理,从而将各个特征矩阵中的特征值映射到一定范围内。具体地,在进行非线性映射时,可以采用但不限于sigmoid函数、tanh函数、relu函数等作为激励函数,通过这些激励函数对各个特征矩阵进行非线性映射处理。
通过全连接层根据激励层输出的各个特征矩阵,得到训练图像中的各个属性的每个属性值的概率。然后通过将全连接层输出的各个属性值的概率与标注的概率值之间的差异度来反向调整多属性卷积神经网络的网络参数,从而实现对多属性卷积神经网络的训练。
可以理解地,可以采用交叉损失函数对训练结果进行评价,然后根据评价结果来调整多属性卷积神经网络中的各个参数的权重,其中,交叉损失函数表示如下:
其中,L表示交叉损失函数的值,即差异度,n表示训练图像的个数,x表示第x个训练图像,m表示预先定义的属性值的个数,yi表示第i个属性的真实属性值的概率,ai表示第i个属性的预测属性值的概率。
如此,可根据交叉损失函数的值,调整训练过程中使用的各层网络参数,其中,网络参数包括但不限于:各卷积计算层的内核参数和初始偏置矩阵、各激励层的参数、各全连接层的参数等。
在利用调整网络参数后的多属性卷积神经网络继续对后续的训练图像进行属性识别时,不断循环往复通过计算出交叉损失函数的值来调整网络参数,直至多属性卷积神经网络输出的各个属性值的预测概率与各个属性值的真实概率之间的差异度小于预设阈值即可,此时多属性卷积神经网络的网络参数均为最优值,则多属性卷积神经网络的训练过程结束,由此可获得训练好的多属性神经网络。
需要说明的是,在训练过程中,没有采用卷积神经网络中的池化层对特征数据进行压缩,是因为其可以尽可能地避免由于使用池化层对特征数据进行压缩导致整个多属性卷积神经网络模型的表达能力较差的问题,有效地提高了属性识别的精确度。
另外,在需要增加新的属性和/或属性值时,可以对训练好的多属性卷积神经网络进行更新,即重新利用一些图像对其进行训练,从而可以有效提高多属性卷积神经网络对属性识别的精确度。
可以理解地,第一属性识别模型和第二属性识别模型均可按照上述过程进行训练,其主要区别为训练图像不同,即第一属性识别模型训练过程中使用的训练图像为包含人物的全身区域的图像,第二属性识别模型训练过程中使用的训练图像为包含人物的人脸区域的图像。
在上述实现过程中,通过对第一属性识别模型和第二属性识别模型进行训练,从而在实际应用时,可以获得较好的识别效果。
当然,第一属性识别模型与第二属性识别模型还可以为其他神经网络模型,如循环神经网络(Recurrent neural networks,RNN)、长短期记忆网络(Long Short TermMemory,LSTM)等,在此不一一举例说明。
另外,在上述实施例的基础上,在对目标图像进行检测时,为了获得较好的检测结果,可以利用预先训练的门控卷积神经网络模型检测目标图像中是否包含目标人物的全身区域,获得第一检测结果,以及利用该门控卷积神经网络模型检测目标图像中是否包含目标人物的人脸区域,获得第二检测结果。
其中,门控卷积神经网络由卷积神经网络加一个线性门控单元组成,门控卷积神经网络获得的检测结果由两维的门控信号来表征,第一维表示是否包含人脸区域,第二维表示是否包含全身区域,其门控信号表示如下:
0 1
0 无人脸区域,无全身区域 无人脸区域,有全身区域
1 有人脸区域,无全身区域 有人脸区域,有全身区域
可以理解地,第一检测结果和第二检测结果可通过门控卷积神经网络输出的门控信号来表征,如门控信号为(0,0)表示目标图像中不包含目标人物的全身区域和人脸区域,门控信号为(0,1)表示目标图像中不包含目标人物的全身区域,仅包含人脸区域,门控信号为(1,0)表示目标图像中仅包含目标人物的全身区域,不包含人脸区域,门控信号为(1,1)表示目标图像中包含目标人物的全身区域和人脸区域。
需要说明的是,若上述检测结果包括置信度时,则门控信号不仅仅只是0和1两个值,还可以为0到1中的任一数值,如门控信号为(0.33,0.5),则表示人脸区域的置信度为0.33,全身区域的置信度为0.5,当然,根据不同的检测结果可以输出不同的门控信号,在此不一一列举。
其中,门控卷积神经网络的训练过程与上述多属性卷积神经网络的训练过程类似,为了描述的简洁,在此不再详细赘述。
如图4所示,目标图像在通过门控卷积神经网络检测其是否包含有对应的人脸区域和/或全身区域,由于为了避免门控卷积神经网络检测有误,所以不管门控卷积网络检测目标图像中是否包括有目标人物的人脸区域和/或全身区域,则也将目标图像分别输入至第一属性识别模型和第二属性识别模型,由第一属性识别模型和第二属性识别模型对其进行属性识别,获得对应的属性识别结果,然后由门控信号来控制选择对应的属性识别结果作为目标人物最终的属性识别结果,如上所述,若门控信号表示目标图像中包含目标人物的全身区域和人脸区域,则将所述第一属性识别模型输出的属性识别结果与第二属性识别模型输出的属性识别结果中对应属性值的概率相加,作为最终的属性识别结果,若门控信号表示目标对象中不包含目标人物的全身区域,仅包含人脸区域,则选择将第二属性识别模型输出的属性识别结果作为目标人物最终的属性识别结果;或者,若门控信号中包括置信度,则可将置信度与对应的属性识别结果中属性值的概率相乘,然后获得最终的属性识别结果。
请参照图5,图5为本申请实施例提供的一种人物属性识别的装置200的结构框图,该装置200可以运行于电子设备上的模块、程序段或代码。该装置200可以是电子设备上的模块、程序段或代码。应理解,该装置200与上述图2方法实施例对应,能够执行图2方法实施例涉及的各个步骤,该装置200具体的功能可以参见上文中的描述,为避免重复,此处适当省略详细描述。
可选地,所述装置200包括:
图像获取模块210,用于获取待识别的目标图像;
第一检测模块220,用于检测所述目标图像中是否包含目标人物的全身区域,获得第一检测结果;
第二检测模块230,用于检测所述目标图像中是否包含所述目标人物的人脸区域,获得第二检测结果;
识别方式确定模块240,用于根据所述第一检测结果与所述第二检测结果确定属性识别方式;
属性识别模块250,用于根据所述属性识别方式对所述目标图像中的所述目标人物进行属性识别,获得属性识别结果。
可选地,所述识别方式确定模块240,具体用于若所述第一检测结果为所述目标图像中包含所述目标人物的全身区域且所述第二检测结果为所述目标图像中包含所述目标人物的人脸区域时,则确定所述属性识别方式为基于所述目标图像中的所述目标人物的全身区域以及所述目标图像中的所述目标人物的人脸区域对所述目标人物进行属性识别。
可选地,所述属性识别模块250,具体用于:
利用预先训练的第一属性识别模型对所述目标图像中的所述目标人物的全身区域进行属性识别,获得第一属性识别结果;
利用预先训练的第二属性识别模型对所述目标图像中的所述目标人物的人脸区域进行属性识别,获得第二属性识别结果;
根据所述第一属性识别结果与所述第二属性识别结果确定针对所述目标人物的属性识别结果。
可选地,所述属性识别模块250,还用于将所述第一属性识别结果中目标属性的取值为目标属性值的概率与所述第二属性识别结果中所述目标属性的取值为所述目标属性值的概率相加获得的属性值的概率之和作为所述目标人物的属性识别结果中所述目标属性值的概率。
可选地,所述第一检测结果包括所述目标图像中包含所述目标人物的全身区域的置信度,所述第二检测结果包括所述目标图像中包含所述目标人物的人脸区域的置信度,所述属性识别模块250,还用于将所述第一属性识别结果中目标属性的取值为目标属性值的概率与所述目标人物的全身区域的置信度相乘,获得所述目标属性值的第一目标概率,将所述第二属性识别结果中所述目标属性的取值为所述目标属性值的概率与所述目标人物的人脸区域的置信度相乘,获得所述目标属性值的第二目标概率;将所述第一目标概率与所述第二目标概率相加获得的概率之和作为所述目标人物的属性识别结果中所述目标属性值的概率。
可选地,所述第一属性识别模型与所述第二属性识别模型均为卷积神经网络模型。
可选地,所述装置还包括:
第一训练模块,用于:
获取包含有人物的全身区域的多张第一训练图像,每张第一训练图像标注有对应的第一识别结果,所述第一识别结果包括多个属性以及每个所述属性的属性值的概率;
将所述多张第一训练图像作为所述第一属性识别模型的输入,将所述第一识别结果作为所述第一属性识别模型的输出,对所述第一属性识别模型进行训练,通过第一交叉损失函数对训练结果进行评价,获得第一评价结果;
根据所述第一评价结果更新所述第一属性识别模型中各个参数的权重,获得训练好的所述第一属性识别模型。
可选地,所述装置还包括:
第二训练模块,用于:
获取包含有人物的人脸区域的多张第二训练图像,每张第二训练图像标注有对应的第二属性识别结果,所述第二属性识别结果包括多个属性以及每个所述属性的属性值的概率;
将所述多张第二训练图像作为所述第二属性识别模型的输入,将所述第二属性识别结果作为所述第二属性识别模型的输出,对所述第二属性识别模型进行训练,通过第二交叉损失函数对训练结果进行评价,获得第二评价结果;
根据所述第二评价结果更新所述第二属性识别模型中各个参数的权重,获得训练好的所述第二属性识别模型。
可选地,所述识别方式确定模块240,具体用于若所述第一检测结果为所述目标图像中包含所述目标人物的全身区域且所述第二检测结果为所述目标图像中不包含所述目标人物的人脸区域,则确定所述属性识别方式为基于所述目标图像中的所述目标人物的全身区域对所述目标人物进行属性识别;
所述属性识别模块250,具体用于利用预先训练的第一属性识别模型对所述目标图像中的所述目标人物的全身区域进行属性识别,获得属性识别结果。
可选地,所述识别方式确定模块240,具体用于若所述第一检测结果为所述目标图像中不包含所述目标人物的全身区域且所述第二检测结果为所述目标图像中包含所述目标人物的人脸区域,则确定所述属性识别方式为基于所述目标图像中的所述目标人物的人脸区域对所述目标人物进行属性识别;
所述属性识别模块250,具体用于利用预先训练的第二属性识别模型对所述目标图像中的所述目标人物的人脸区域进行属性识别,获得属性识别结果。
可选地,所述识别方式确定模块240,具体用于若所述第一检测结果为所述目标图像中包含所述目标人物的全身区域且所述第二检测结果为所述目标图像中不包含所述目标人物的人脸区域,则确定所述属性识别方式为基于所述目标图像中的所述目标人物的全身区域对所述目标人物进行属性识别;
所述属性识别模块250,具体用于利用预先训练的第一属性识别模型对所述目标图像中的所述目标人物的全身区域进行属性识别,获得第一属性识别结果;利用预先训练的第二属性识别模型对所述目标图像中的所述目标人物的人脸区域进行属性识别,获得第二属性识别结果;根据所述第一属性识别结果和所述第二属性识别结果确定所述目标人物的属性识别结果。
可选地,所述识别方式确定模块240,具体用于若所述第一检测结果为所述目标图像中不包含所述目标人物的全身区域且所述第二检测结果为所述目标图像中包含所述目标人物的人脸区域,则确定所述属性识别方式为基于所述目标图像中的所述目标人物的人脸区域对所述目标人物进行属性识别;
所述属性识别模块250,具体用于利用预先训练的第一属性识别模型对所述目标图像中的所述目标人物的全身区域进行属性识别,获得第一属性识别结果;利用预先训练的第二属性识别模型对所述目标图像中的所述目标人物的人脸区域进行属性识别,获得第二属性识别结果;根据所述第二属性识别结果和所述第二属性识别结果确定所述目标人物的属性识别结果。
可选地,所述第一检测模块220,具体用于采用预设训练的门控卷积神经网络模型检测所述目标图像中是否包含所述目标人物的全身区域,获得第一检测结果;
所述第二检测模块230,具体用于利用预先训练的所述门控卷积神经网络模型检测所述目标图像中是否包含所述目标人物的人脸区域,获得第二检测结果。
本申请实施例提供一种可读存储介质,所述计算机程序被处理器执行时,执行如图2所示方法实施例中电子设备所执行的方法过程。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的装置的具体工作过程,可以参考前述方法中的对应过程,在此不再过多赘述。
综上所述,本申请实施例提供一种人物属性识别的方法、装置、电子设备及可读存储介质,该方法通过先检测目标图像中是否包含有目标人物的全身区域和/或人脸区域,根据对应的检测结果确定属性识别方式,然后根据属性识别方式对目标人物进行属性识别,从而可以根据采集的图像中人物的实际情况来确定对应的识别方式,进而可以采用较好的识别方式来对目标人物进行识别,以有效提高属性识别的准确性,获得较好的识别效果。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,也可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,附图中的流程图和框图显示了根据本申请的多个实施例的装置、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现方式中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
另外,在本申请各个实施例中的各功能模块可以集成在一起形成一个独立的部分,也可以是各个模块单独存在,也可以两个或两个以上模块集成形成一个独立的部分。
所述功能如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅为本申请的优选实施例而已,并不用于限制本申请,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。

Claims (16)

1.一种人物属性识别的方法,其特征在于,所述方法包括:
获取待识别的目标图像;
检测所述目标图像中是否包含目标人物的全身区域,获得第一检测结果;
检测所述目标图像中是否包含所述目标人物的人脸区域,获得第二检测结果;
根据所述第一检测结果与所述第二检测结果确定属性识别方式;
根据所述属性识别方式对所述目标图像中的所述目标人物进行属性识别,获得属性识别结果。
2.根据权利要求1所述的方法,其特征在于,所述根据所述第一检测结果与所述第二检测结果确定属性识别方式,包括:
若所述第一检测结果为所述目标图像中包含所述目标人物的全身区域且所述第二检测结果为所述目标图像中包含所述目标人物的人脸区域时,则确定所述属性识别方式为基于所述目标图像中的所述目标人物的全身区域以及所述目标图像中的所述目标人物的人脸区域对所述目标人物进行属性识别。
3.根据权利要求2所述的方法,其特征在于,所述根据所述属性识别方式对所述目标图像中的所述目标人物进行属性识别,获得属性识别结果,包括:
利用预先训练的第一属性识别模型对所述目标图像中的所述目标人物的全身区域进行属性识别,获得第一属性识别结果;
利用预先训练的第二属性识别模型对所述目标图像中的所述目标人物的人脸区域进行属性识别,获得第二属性识别结果;
根据所述第一属性识别结果与所述第二属性识别结果确定针对所述目标人物的属性识别结果。
4.根据权利要求3所述的方法,其特征在于,所述根据所述第一属性识别结果与所述第二属性识别结果确定针对所述目标人物的属性识别结果,包括:
将所述第一属性识别结果中目标属性的取值为目标属性值的概率与所述第二属性识别结果中所述目标属性的取值为所述目标属性值的概率相加获得的属性值的概率之和作为所述目标人物的属性识别结果中所述目标属性值的概率。
5.根据权利要求3所述的方法,其特征在于,所述第一检测结果包括所述目标图像中包含所述目标人物的全身区域的置信度,所述第二检测结果包括所述目标图像中包含所述目标人物的人脸区域的置信度,所述根据所述第一属性识别结果与所述第二属性识别结果确定针对所述目标人物的属性识别结果,包括:
将所述第一属性识别结果中目标属性的取值为目标属性值的概率与所述目标人物的全身区域的置信度相乘,获得所述目标属性值的第一目标概率,将所述第二属性识别结果中所述目标属性的取值为所述目标属性值的概率与所述目标人物的人脸区域的置信度相乘,获得所述目标属性值的第二目标概率;
将所述第一目标概率与所述第二目标概率相加获得的概率之和作为所述目标人物的属性识别结果中所述目标属性值的概率。
6.根据权利要求3所述的方法,其特征在于,所述第一属性识别模型与所述第二属性识别模型均为卷积神经网络模型。
7.根据权利要求3-6任一所述的方法,其特征在于,所述获取待识别的目标图像之前,所述方法还包括:
获取包含有人物的全身区域的多张第一训练图像,每张第一训练图像标注有对应的第一识别结果,所述第一识别结果包括多个属性以及每个所述属性的属性值的概率;
将所述多张第一训练图像作为所述第一属性识别模型的输入,将所述第一识别结果作为所述第一属性识别模型的输出,对所述第一属性识别模型进行训练,通过第一交叉损失函数对训练结果进行评价,获得第一评价结果;
根据所述第一评价结果更新所述第一属性识别模型中各个参数的权重,获得训练好的所述第一属性识别模型。
8.根据权利要求3-6任一所述的方法,其特征在于,所述获取待识别的目标图像之前,所述方法还包括:
获取包含有人物的人脸区域的多张第二训练图像,每张第二训练图像标注有对应的第二属性识别结果,所述第二属性识别结果包括多个属性以及每个所述属性的属性值的概率;
将所述多张第二训练图像作为所述第二属性识别模型的输入,将所述第二属性识别结果作为所述第二属性识别模型的输出,对所述第二属性识别模型进行训练,通过第二交叉损失函数对训练结果进行评价,获得第二评价结果;
根据所述第二评价结果更新所述第二属性识别模型中各个参数的权重,获得训练好的所述第二属性识别模型。
9.根据权利要求1所述的方法,其特征在于,所述根据所述第一检测结果与所述第二检测结果确定属性识别方式,包括:
若所述第一检测结果为所述目标图像中包含所述目标人物的全身区域且所述第二检测结果为所述目标图像中不包含所述目标人物的人脸区域,则确定所述属性识别方式为基于所述目标图像中的所述目标人物的全身区域对所述目标人物进行属性识别;
所述根据所述属性识别方式对所述目标图像中的所述目标人物进行属性识别,获得属性识别结果,包括:
利用预先训练的第一属性识别模型对所述目标图像中的所述目标人物的全身区域进行属性识别,获得属性识别结果。
10.根据权利要求1所述的方法,其特征在于,所述根据所述第一检测结果与所述第二检测结果确定属性识别方式,包括:
若所述第一检测结果为所述目标图像中不包含所述目标人物的全身区域且所述第二检测结果为所述目标图像中包含所述目标人物的人脸区域,则确定所述属性识别方式为基于所述目标图像中的所述目标人物的人脸区域对所述目标人物进行属性识别;
所述根据所述属性识别方式对所述目标图像中的所述目标人物进行属性识别,获得属性识别结果,包括:
利用预先训练的第二属性识别模型对所述目标图像中的所述目标人物的人脸区域进行属性识别,获得属性识别结果。
11.根据权利要求1所述的方法,其特征在于,所述根据所述第一检测结果与所述第二检测结果确定属性识别方式,包括:
若所述第一检测结果为所述目标图像中包含所述目标人物的全身区域且所述第二检测结果为所述目标图像中不包含所述目标人物的人脸区域,则确定所述属性识别方式为基于所述目标图像中的所述目标人物的全身区域对所述目标人物进行属性识别;
所述根据所述属性识别方式对所述目标图像中的所述目标人物进行属性识别,获得属性识别结果,包括:
利用预先训练的第一属性识别模型对所述目标图像中的所述目标人物的全身区域进行属性识别,获得第一属性识别结果;
利用预先训练的第二属性识别模型对所述目标图像中的所述目标人物的人脸区域进行属性识别,获得第二属性识别结果;
根据所述第一属性识别结果和所述第二属性识别结果确定所述目标人物的属性识别结果。
12.根据权利要求1所述的方法,其特征在于,所述根据所述第一检测结果与所述第二检测结果确定属性识别方式,包括:
若所述第一检测结果为所述目标图像中不包含所述目标人物的全身区域且所述第二检测结果为所述目标图像中包含所述目标人物的人脸区域,则确定所述属性识别方式为基于所述目标图像中的所述目标人物的人脸区域对所述目标人物进行属性识别;
所述根据所述属性识别方式对所述目标图像中的所述目标人物进行属性识别,获得属性识别结果,包括:
利用预先训练的第一属性识别模型对所述目标图像中的所述目标人物的全身区域进行属性识别,获得第一属性识别结果;
利用预先训练的第二属性识别模型对所述目标图像中的所述目标人物的人脸区域进行属性识别,获得第二属性识别结果;
根据所述第二属性识别结果和所述第二属性识别结果确定所述目标人物的属性识别结果。
13.根据权利要求1所述的方法,其特征在于,所述检测所述目标图像中是否包含所述目标人物的全身区域,获得第一检测结果,包括:
采用预设训练的门控卷积神经网络模型检测所述目标图像中是否包含所述目标人物的全身区域,获得第一检测结果;
所述检测所述目标图像中是否包含所述目标人物的人脸区域,获得第二检测结果,包括:
利用预先训练的所述门控卷积神经网络模型检测所述目标图像中是否包含所述目标人物的人脸区域,获得第二检测结果。
14.一种人物属性识别的装置,其特征在于,所述装置包括:
图像获取模块,用于获取待识别的目标图像;
第一检测模块,用于检测所述目标图像中是否包含目标人物的全身区域,获得第一检测结果;
第二检测模块,用于检测所述目标图像中是否包含所述目标人物的人脸区域,获得第二检测结果;
识别方式确定模块,用于根据所述第一检测结果与所述第二检测结果确定属性识别方式;
属性识别模块,用于根据所述属性识别方式对所述目标图像中的所述目标人物进行属性识别,获得属性识别结果。
15.一种电子设备,其特征在于,包括处理器以及存储器,所述存储器存储有计算机可读取指令,当所述计算机可读取指令由所述处理器执行时,运行如权利要求1-13任一所述方法中的步骤。
16.一种可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时运行如权利要求1-13任一所述方法中的步骤。
CN201910776337.4A 2019-08-21 2019-08-21 人物属性识别的方法、装置、电子设备及可读存储介质 Pending CN110472611A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910776337.4A CN110472611A (zh) 2019-08-21 2019-08-21 人物属性识别的方法、装置、电子设备及可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910776337.4A CN110472611A (zh) 2019-08-21 2019-08-21 人物属性识别的方法、装置、电子设备及可读存储介质

Publications (1)

Publication Number Publication Date
CN110472611A true CN110472611A (zh) 2019-11-19

Family

ID=68512686

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910776337.4A Pending CN110472611A (zh) 2019-08-21 2019-08-21 人物属性识别的方法、装置、电子设备及可读存储介质

Country Status (1)

Country Link
CN (1) CN110472611A (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111263066A (zh) * 2020-02-18 2020-06-09 Oppo广东移动通信有限公司 构图指导方法、装置、电子设备及存储介质
CN112633119A (zh) * 2020-12-17 2021-04-09 北京赢识科技有限公司 一种人体属性识别方法、装置、电子设备及介质
CN112836656A (zh) * 2021-02-07 2021-05-25 北京迈格威科技有限公司 设备控制方法、装置和图像采集系统
CN112836549A (zh) * 2019-11-22 2021-05-25 虹软科技股份有限公司 用户信息的检测方法及系统、电子设备
WO2021174941A1 (zh) * 2020-03-03 2021-09-10 平安科技(深圳)有限公司 人体属性识别方法、系统、计算机设备及存储介质
CN114973727A (zh) * 2022-08-02 2022-08-30 成都工业职业技术学院 一种基于乘客特征的智能驾驶方法
CN115131825A (zh) * 2022-07-14 2022-09-30 北京百度网讯科技有限公司 人体属性的识别方法、装置、电子设备和存储介质
CN115457644A (zh) * 2022-11-10 2022-12-09 成都智元汇信息技术股份有限公司 一种基于扩展空间映射获得目标的识图方法及装置
CN115578777A (zh) * 2022-11-10 2023-01-06 成都智元汇信息技术股份有限公司 一种基于空间映射获得目标的识图方法及装置
CN115661903A (zh) * 2022-11-10 2023-01-31 成都智元汇信息技术股份有限公司 一种基于空间映射协同目标过滤的识图方法及装置

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103201763A (zh) * 2010-10-22 2013-07-10 Nec软件有限公司 属性确定方法、属性确定装置、程序、记录介质及属性确定系统
CN107247947A (zh) * 2017-07-07 2017-10-13 北京智慧眼科技股份有限公司 人脸属性识别方法及装置
CN107844781A (zh) * 2017-11-28 2018-03-27 腾讯科技(深圳)有限公司 人脸属性识别方法及装置、电子设备及存储介质
CN107862300A (zh) * 2017-11-29 2018-03-30 东华大学 一种基于卷积神经网络的监控场景下行人属性识别方法
CN108279573A (zh) * 2018-02-05 2018-07-13 北京智能管家科技有限公司 基于人体属性检测的控制方法、装置、智能家电和介质
CN108596011A (zh) * 2017-12-29 2018-09-28 中国电子科技集团公司信息科学研究院 一种基于组合深度网络的人脸属性识别方法和装置
CN108921022A (zh) * 2018-05-30 2018-11-30 腾讯科技(深圳)有限公司 一种人体属性识别方法、装置、设备及介质
CN109117758A (zh) * 2018-07-27 2019-01-01 北京字节跳动网络技术有限公司 用于生成信息的方法和装置
CN109241934A (zh) * 2018-09-21 2019-01-18 北京字节跳动网络技术有限公司 用于生成信息的方法和装置
CN109271884A (zh) * 2018-08-29 2019-01-25 厦门理工学院 人脸属性识别方法、装置、终端设备和存储介质
CN109993150A (zh) * 2019-04-15 2019-07-09 北京字节跳动网络技术有限公司 用于识别年龄的方法和装置
CN110008926A (zh) * 2019-04-15 2019-07-12 北京字节跳动网络技术有限公司 用于识别年龄的方法和装置

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103201763A (zh) * 2010-10-22 2013-07-10 Nec软件有限公司 属性确定方法、属性确定装置、程序、记录介质及属性确定系统
CN107247947A (zh) * 2017-07-07 2017-10-13 北京智慧眼科技股份有限公司 人脸属性识别方法及装置
CN107844781A (zh) * 2017-11-28 2018-03-27 腾讯科技(深圳)有限公司 人脸属性识别方法及装置、电子设备及存储介质
CN107862300A (zh) * 2017-11-29 2018-03-30 东华大学 一种基于卷积神经网络的监控场景下行人属性识别方法
CN108596011A (zh) * 2017-12-29 2018-09-28 中国电子科技集团公司信息科学研究院 一种基于组合深度网络的人脸属性识别方法和装置
CN108279573A (zh) * 2018-02-05 2018-07-13 北京智能管家科技有限公司 基于人体属性检测的控制方法、装置、智能家电和介质
CN108921022A (zh) * 2018-05-30 2018-11-30 腾讯科技(深圳)有限公司 一种人体属性识别方法、装置、设备及介质
CN109117758A (zh) * 2018-07-27 2019-01-01 北京字节跳动网络技术有限公司 用于生成信息的方法和装置
CN109271884A (zh) * 2018-08-29 2019-01-25 厦门理工学院 人脸属性识别方法、装置、终端设备和存储介质
CN109241934A (zh) * 2018-09-21 2019-01-18 北京字节跳动网络技术有限公司 用于生成信息的方法和装置
CN109993150A (zh) * 2019-04-15 2019-07-09 北京字节跳动网络技术有限公司 用于识别年龄的方法和装置
CN110008926A (zh) * 2019-04-15 2019-07-12 北京字节跳动网络技术有限公司 用于识别年龄的方法和装置

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112836549A (zh) * 2019-11-22 2021-05-25 虹软科技股份有限公司 用户信息的检测方法及系统、电子设备
CN111263066A (zh) * 2020-02-18 2020-06-09 Oppo广东移动通信有限公司 构图指导方法、装置、电子设备及存储介质
WO2021174941A1 (zh) * 2020-03-03 2021-09-10 平安科技(深圳)有限公司 人体属性识别方法、系统、计算机设备及存储介质
CN112633119A (zh) * 2020-12-17 2021-04-09 北京赢识科技有限公司 一种人体属性识别方法、装置、电子设备及介质
CN112836656A (zh) * 2021-02-07 2021-05-25 北京迈格威科技有限公司 设备控制方法、装置和图像采集系统
CN115131825A (zh) * 2022-07-14 2022-09-30 北京百度网讯科技有限公司 人体属性的识别方法、装置、电子设备和存储介质
CN114973727A (zh) * 2022-08-02 2022-08-30 成都工业职业技术学院 一种基于乘客特征的智能驾驶方法
CN114973727B (zh) * 2022-08-02 2022-09-30 成都工业职业技术学院 一种基于乘客特征的智能驾驶方法
CN115457644A (zh) * 2022-11-10 2022-12-09 成都智元汇信息技术股份有限公司 一种基于扩展空间映射获得目标的识图方法及装置
CN115578777A (zh) * 2022-11-10 2023-01-06 成都智元汇信息技术股份有限公司 一种基于空间映射获得目标的识图方法及装置
CN115661903A (zh) * 2022-11-10 2023-01-31 成都智元汇信息技术股份有限公司 一种基于空间映射协同目标过滤的识图方法及装置
CN115578777B (zh) * 2022-11-10 2023-03-14 成都智元汇信息技术股份有限公司 一种基于空间映射获得目标的识图方法及装置

Similar Documents

Publication Publication Date Title
CN110472611A (zh) 人物属性识别的方法、装置、电子设备及可读存储介质
CN106650913B (zh) 一种基于深度卷积神经网络的车流密度估计方法
CN112232476B (zh) 更新测试样本集的方法及装置
CN107657249A (zh) 多尺度特征行人重识别的方法、装置、存储介质及处理器
CN109670452A (zh) 人脸检测方法、装置、电子设备和人脸检测模型
CN106845330A (zh) 一种基于深度卷积神经网络的二维人脸识别模型的训练方法
CN106874894A (zh) 一种基于区域全卷积神经网络的人体目标检测方法
CN111723654A (zh) 基于背景建模、YOLOv3与自优化的高空抛物检测方法及装置
CN109166094A (zh) 一种基于深度学习的绝缘子故障定位识别方法
CN109272016A (zh) 目标检测方法、装置、终端设备和计算机可读存储介质
CN109858466A (zh) 一种基于卷积神经网络的人脸关键点检测方法及装置
CN107665336A (zh) 智能冰箱中基于Faster‑RCNN的多目标检测方法
CN108830285A (zh) 一种基于Faster-RCNN的加强学习的目标检测方法
CN108764085A (zh) 基于生成对抗网络的人群计数方法
CN107330453A (zh) 基于分步识别和融合关键部位检测的色情图像识别方法
CN108961675A (zh) 基于卷积神经网络的跌倒检测方法
CN107590460B (zh) 人脸分类方法、装置及智能终端
CN105243667B (zh) 基于局部特征融合的目标再识别方法
CN108062562A (zh) 一种物体重识别方法及装置
CN108830145A (zh) 一种基于深度神经网络的人数统计方法及存储介质
CN107045631A (zh) 人脸特征点检测方法、装置及设备
CN104463869B (zh) 一种视频火焰图像复合识别方法
CN110414400A (zh) 一种施工现场安全帽穿戴自动检测方法及系统
CN107958255A (zh) 一种基于图像的目标检测方法及装置
CN108446694A (zh) 一种目标检测方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20191119

RJ01 Rejection of invention patent application after publication