CN111783619B - 人体属性的识别方法、装置、设备及存储介质 - Google Patents
人体属性的识别方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN111783619B CN111783619B CN202010604378.8A CN202010604378A CN111783619B CN 111783619 B CN111783619 B CN 111783619B CN 202010604378 A CN202010604378 A CN 202010604378A CN 111783619 B CN111783619 B CN 111783619B
- Authority
- CN
- China
- Prior art keywords
- attribute
- human
- image
- human body
- human attribute
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 66
- 239000013598 vector Substances 0.000 claims abstract description 51
- 238000012545 processing Methods 0.000 claims abstract description 31
- 238000000605 extraction Methods 0.000 claims abstract description 26
- 238000012549 training Methods 0.000 claims description 32
- 238000001514 detection method Methods 0.000 claims description 22
- 230000015654 memory Effects 0.000 claims description 19
- 230000006870 function Effects 0.000 claims description 18
- 238000003062 neural network model Methods 0.000 claims description 15
- 230000008569 process Effects 0.000 claims description 15
- 238000007781 pre-processing Methods 0.000 claims description 7
- 238000011282 treatment Methods 0.000 claims description 5
- 238000010606 normalization Methods 0.000 claims description 3
- 238000013473 artificial intelligence Methods 0.000 abstract description 3
- 238000013135 deep learning Methods 0.000 abstract description 2
- 238000004590 computer program Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 10
- 230000000391 smoking effect Effects 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000011176 pooling Methods 0.000 description 3
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 239000013589 supplement Substances 0.000 description 2
- 241001061106 Sargocentron rubrum Species 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013075 data extraction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000005021 gait Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 230000037303 wrinkles Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
- G06V40/25—Recognition of walking or running movements, e.g. gait recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/178—Human faces, e.g. facial parts, sketches or expressions estimating age from face image; using age information for improving recognition
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Mathematical Physics (AREA)
- Social Psychology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Software Systems (AREA)
- Psychiatry (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Probability & Statistics with Applications (AREA)
- Bioinformatics & Computational Biology (AREA)
- Image Analysis (AREA)
Abstract
本申请提供的人体属性的识别方法、装置、设备及存储介质,涉及人工智能的深度学习、图像识别以及云计算领域,具体实现方案为:构建包括有可提取各人体属性类型共用的浅层特征信息的浅层特征提取网络,还包括有可针对不同人体属性类型的进行针对性处理的高层特征分支网络的人体属性识别模型,以利用人体属性识别模型得到不同人体属性类型对应的预测向量,从而得到识别结果,这样的处理方式与现有技术相比,有效提高了对于不同人体属性类型的识别结果的识别准确率,特别对于一些类型互斥的人体属性类型的识别结果的获取,有着较高的准确率。
Description
技术领域
本申请实施例涉及人工智能的深度学习、图像识别以及云计算领域,尤其涉及一种人体属性的识别方法、装置、设备及存储介质。
背景技术
随着科技的发展,基于图像处理技术识别图像中的人体被广泛适用于各个领域,利用神经网络模型进行人体属性识别是其中一种可实现方式。
在现有技术中,由于人体属性的多样化,不同的人体属性所偏重的属性特征是不同的,对于不同偏重的属性特征在训练模型时,所使用的训练样本是不同的。
但是,于不同偏重的属性特征之间的互斥性,采用现有的神经网络模型在输出人体属性的识别结果时,对于互斥的人体属性的识别准确率较低。
发明内容
本申请提供了一种人体属性的识别方法、装置、设备及存储介质。
本申请的第一方面提供了一种人体属性的识别方法,包括:
获得待识别行人图像;
将所述待识别行人图像输入至训练完毕的人体属性识别模型的浅层特征提取网络,获得待识别行人图像的浅层特征信息;
将所述浅层特征信息分别输入至训练完毕的人体属性识别模型的多个高层特征分支网络,获得每个高层特征分支网络所输出的预测向量,其中,所述不同高层特征分支网络可用于输出不同人体属性类型的预测向量;
根据各人体属性类型的预测向量,确定待识别行人图像的人体属性的识别结果。
本申请的第二方面提供了一种人体属性的识别装置,包括:
获取模块,用于获得待识别行人图像;
处理模块,用于将所述待识别行人图像输入至训练完毕的人体属性识别模型的浅层特征提取网络,获得待识别行人图像的浅层特征信息;还用于将所述浅层特征信息分别输入至训练完毕的人体属性识别模型的多个高层特征分支网络,获得每个高层特征分支网络所输出的预测向量,其中,所述不同高层特征分支网络可用于输出不同人体属性类型的预测向量;
输出模块,用于根据各人体属性类型的预测向量,确定待识别行人图像的人体属性的识别结果。
本申请的第三方面提供了一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行第一方面中任一项所述的方法。
本申请的第四方面提供了一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行第一方面任一项所述的方法。
本申请的第五方面提供了一种计算机程序产品,所述程序产品包括:计算机程序,所述计算机程序存储在可读存储介质中,地啊你设备的至少一个处理器可以从所述可读存储介质读取所述计算机程序,所述至少一个处理器执行所述计算机程序使得电子设备执行第一方面所述的方法。
本申请提供的人体属性的识别方法、装置、设备及存储介质,通过将获得的待识别行人图像输入至训练完毕的人体属性识别模型,以输出不同人体属性类型对应的预测向量,根据各人体属性类型的预测向量,确定人体属性的识别结果。由于人体属性识别模型中包括有可提取各人体属性类型共用的浅层特征信息的浅层特征提取网络,还包括有可针对不同人体属性类型的进行针对性处理的高层特征分支网络,以利用得到不同人体属性类型对应的预测向量,从而得到识别结果,这样的处理方式与现有技术相比,有效提高了对于不同人体属性类型的识别结果的识别准确率,特别对于一些类型互斥的人体属性类型的识别结果的获取,有着较高的准确率。
应当理解,本部分所描述的内容并非旨在标识本申请的实施例的关键或重要特征,也不用于限制本申请的范围。本申请的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1是本申请实施例的人体属性的识别方法的场景图;
图2是本申请提供的一种人体属性的识别方法的流程示意图;
图3是本申请实施例提供的一种人体属性识别模型的模型结构示意图;
图4为本申请实施例提供的另一种人体属性的识别方法的流程示意图;
图5是本申请实施例提供的另一种人体属性识别模型的模型结构示意图;
图6为本申请提供的一种人体属性的识别装置的结构示意图;
图7是用来实现本申请实施例人体属性的识别方法的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
为了清楚理解本申请的技术方案,首先对现有技术的方案进行详细介绍。
随着科技的发展,基于图像处理技术识别图像中的人体被广泛适用于各个领域。举例来说,在监控安防领域,通过利用图像处理技术可对于监控视频图像中的行人的信息进行识别和分析,以便于相关人员利用识别和分析的结果,维护公共治安。
利用人体属性识别模型对于图像中的人体属性进行识别是其中一种可实现方式。在现有技术中,神经网络模型在需要对于图像中的属性特征进行提取,然后基于提取的属性特征进行池化和分类等处理,进而得到人体属性的识别结果。由于人体属性的多样化,不同的人体属性所偏重的属性特征是不同的,如一些人体属性偏重于全局属性特征,而另一些则偏重于局部属性特征。
举例来说,针对于“年龄”这一人体属性类型以及“是否吸烟”这一人体属性类型的识别来说:
前者“年龄”这一人体属性的判定更多的依赖于人体的整体的全局特征,其包括但不限于面容的皱褶程度、身形步态、穿衣打扮的风格、配饰物品的风格等等,通过结合上述一系列的特征才能对于该“年龄”这一人体属性类型进行有效识别,从而得到相应的识别结果;
而后者“是否吸烟”这一人体属性的判定更多的依赖于人体的局部特征,其一般聚焦于面部是否包括目标物,或手部是否夹持目标物等等,即针对于上述局部的特征即可确定“是否吸烟”这一人体属性类型的识别结果。
而为了能够识别多种类型的人体属性,一般将会利用大量不同类型的人体属性的训练样本对人体属性识别模型进行训练,但是由于训练目标的不一致,这样会使得训练完毕的人体属性模型在识别互斥性的人体属性类型时存在较大的误差。
换句话说,为了对于不同偏重的属性特征在训练模型时,所使用的训练样本是不同的,而由于不同偏重的属性特征之间的互斥性,采用现有的神经网络模型在输出人体属性的识别结果时,对于互斥的人体属性的识别准确率较低。
针对这样的问题,发明人在研究中发现,通过将获得的待识别行人图像输入至训练完毕的人体属性识别模型,以输出不同人体属性类型对应的预测向量,根据各人体属性类型的预测向量,确定人体属性的识别结果。由于人体属性识别模型中包括有可提取各人体属性类型共用的浅层特征信息的浅层特征提取网络,还包括有可针对不同人体属性类型的进行针对性处理的高层特征分支网络,以利用得到不同人体属性类型对应的预测向量,从而得到识别结果,这样的处理方式与现有技术相比,有效提高了对于不同人体属性类型的识别结果的识别准确率,特别对于一些类型互斥的人体属性类型的识别结果的获取,有着较高的准确率。此外,当采用上述的网络时,其在训练时也更加有针对性,提高了训练效率。
下面对本申请实施例提供的应用场景进行介绍。
本申请提供了一种人体属性的识别方法、装置、设备及存储介质,应用于计算机技术中的人工智能技术,以实现对于图像中的人体属性进行准确识别。
图1是可以实现本申请实施例的人体属性的识别方法的场景图,如图1所示,本申请实施例提供的人体属性的识别方法对应的应用场景中包括:前端的终端1以及服务器2。
其中,各前端的终端1具体可为可用于采集图像或拍摄视频等具体视频图像采集功能的硬件设备,其包括但不限于监控摄像头、照相机、具备摄像功能的智能手机、具备摄像功能的平板电脑等。通过网络,终端1可将采集得到的图像或视频等发送至服务器2,以供其按照预设的处理逻辑进行相应处理。
而服务器2具体可为硬件服务器,或承载云端服务器的硬件载体。当各终端1将采集得到的图像或视频发送至服务器2时,服务器2中承载的人体属性的识别装置将调用训练完毕的人体属性识别模型对图像或视频中的待识别行人图像进行识别处理,得到待识别行人图像的人体属性识别结果。
以下将参照附图来具体描述本申请的实施例。
实施例一
图2是本申请提供的一种人体属性的识别方法的流程示意图,如图2所示的,本申请实施例的执行主体为人体属性的识别装置,该人体属性的识别装置将承载于前述的服务器中。
本实施例提供的人体属性的识别方法包括以下几个步骤。
步骤101、获得待识别行人图像。
步骤102、将所述待识别行人图像输入至训练完毕的人体属性识别模型的浅层特征提取网络,获得待识别行人图像的浅层特征信息。
步骤103、将所述浅层特征信息分别输入至训练完毕的人体属性识别模型的多个高层特征分支网络,获得每个高层特征分支网络所输出的预测向量,其中,所述不同高层特征分支网络可用于输出不同人体属性类型的预测向量。
步骤104、根据各人体属性类型的预测向量,确定待识别行人图像的人体属性的识别结果。
本实施例中,待识别行人图像是指预先采集获得的包括有行人的待识别的图像。需要说明的是,其采集获得的渠道可为多种,其包括但不限于从已有视频中截取获得,利用互联网资源获得、拍摄采集获得等等。
需要说明的是,由于本申请实施例涉及的为对于图像中人体属性的识别,无论采用什么样的获得方式,其图像中均应包括有行人图像。
基于预先采集获得的待识别图像,为了能够对其进行图像识别,还需对其进行一系列处理。
具体来说,首先,获得待识别图像,然后,确定所述待识别图像中行人检测框,所述行人检测框用于表示行人在所述待识别图像中的图像位置;再后,对所述行人检测框中的图像进行预处理,获得所述待识别行人图像。
其中,对于待识别图像中行人检测框的获取,具体可采用像素检测算法、基于人脸识别的行人检测框的生成方法等获取,本申请对其不进行限制。
此外,上述的预处理包括尺度缩放处理、像素值归一化处理、均值处理以及方差处理。
其中,尺度缩放处理可为将图像在尺度维度上进行缩放,以使得缩放后的图像的尺度维度为224*224;均值处理可为将图像的RGB像素值进行以(0.485,0.456,0.406)为均值的像素处理;方差处理可为将图像的RGB像素值进行以(0.229,0.224,0.225)为方差值的像素处理。
通过上述一系列的处理,可使得待识别图像中行人图像能够被快速聚焦和提取出来,便于后续将待识别行人图像输入至人体属性识别模型的待识别行人图像。
随后,识别装置中的人体属性识别模型会对该待识别行人图像进行响应的识别处理。
图3是本申请实施例提供的一种人体属性识别模型的模型结构示意图,如图3所示的,在该人体属性识别模型中包括有浅层特征提取网络,以及分别与该浅层特征网络连接的高层特征分支网络。其中,对于不同的高层特征分支网络来说,由于侧重的可分析的人体属性类型的不同,当不同的高层特征分支网络输入相同的特征信息时,将输出不同的预测向量,每个预测向量表示的结果均与分支网络对应的人体属性类型相应。其中,需要明确的是,在本申请中“人体属性类型”用于指代“年龄”“是否吸烟”等用于表征人体属性的种类的信息。
也就是说,在本申请实施例提供的方案中,识别装置首先将待识别行人图像输入至训练完毕的人体属性识别模型的浅层特征提取网络,以获得待识别行人图像的浅层特征信息。该浅层特征信息为不同人体属性类型通用的特征信息。
随后,识别装置会将该浅层特征信息分别输入到各个高层特征分支网络,以利用各高层特征分支网络对浅层特征信息进行不同的处理,得到针对于不同人体属性类型的预测向量。
其中,针对每一高层特征分支网络来说,可选实施方式中,其首先会将浅层特征信息进行高层特征提取,以获得与其所对应的人体属性类型相匹配的特征。例如,针对“是否吸烟”这一人体属性类型,其高层特征分支网络在获得浅层特征信息之后,会将与面部相关的特征或与手部相关的特征提取出来,以构成该高层特征分支网络可处理的高层特征信息。然后,高层特征分支网络将调用其中的全局池化层、全连接层等一系列网络结构对其进行处理,获得预测向量。
最后,识别装置可利用该各个预测向量得到人体属性的识别结果,如某一待识别图像中对应的人体属性识别结果为:“抽烟”“男性”“老年”“高个子”“半身像”“红色外套”等等。
可选的,在执行根据各人体属性类型的预测向量,确定待识别行人图像的人体属性的识别结果的步骤时,具体可采用如下步骤:首先,识别装置针对每一人体属性类型的预测向量,利用分类函数进行处理,获得每一人体属性类型在不同属性值下的概率值;随后,其将概率值最大的属性值作为其相应人体属性类型对应的识别结果。
具体的,其中的分类函数具体可为softmax函数。其中的而不同属性值具体可表示为同一人体属性类型下的取值,例如,“年龄”这一人体属性类型下,其属性值包括“儿童”“青少年”“成年人”“老年人”等等。通过采用概率值最大的属性值作为人体属性类型的识别结果的方式,从而提高了识别准确性。
进一步的,为了提高识别结果的真实性,所述针对每一人体属性类型的预测向量,利用分类函数进行处理,获得每一人体属性类型在不同属性值下的概率值时,还可对于其置信度进行确定。
也就是说,针对每一人体属性类型的预测向量,利用分类函数进行处理,获得每一人体属性类型在不同属性值下的概率值以及置信度;而概率值最大的属性值以及其置信度将作为其相应人体属性类型对应的识别结果。
通过这样的方式得到的识别结果能够有效体现其准确性和可信度,便于后续使用。
本申请实施例提供的人体属性识别方法,由于人体属性识别模型中包括有可提取各人体属性类型共用的浅层特征信息的浅层特征提取网络,还包括有可针对不同人体属性类型的进行针对性处理的高层特征分支网络,以利用得到不同人体属性类型对应的预测向量,从而得到识别结果,这样的处理方式与现有技术相比,有效提高了对于不同人体属性类型的识别结果的识别准确率,特别对于一些类型互斥的人体属性类型的识别结果的获取,有着较高的准确率。
在上述实施例的基础上,为了进一步提高输出的人体属性的准确性和全面性,图4为本申请实施例提供的另一种人体属性的识别方法的流程示意图,如图4所示的,该方法包括:
步骤201、获得待识别行人图像;
步骤202、将所述待识别行人图像输入至训练完毕的人体属性识别模型的浅层特征提取网络,获得待识别行人图像的浅层特征信息;
步骤203、将所述浅层特征信息分别输入至训练完毕的人体属性识别模型的多个高层特征分支网络,获得每个高层特征分支网络所输出的预测向量,其中,所述不同高层特征分支网络可用于输出不同人体属性类型的预测向量。
步骤204、根据各人体属性类型的预测向量,确定各人体属性类型的识别结果。
步骤205、在人体属性识别模型的可识别人体属性类型范围中,确定是否有未获得识别结果的人体属性类型。
若是,则执行步骤206;若否,则输出识别结果。
步骤206、根据已获得的人体属性类型的识别结果,以及各人体属性类型之间的逻辑关联性,获得未获得的人体属性类型的识别结果。
上述的步骤201-203均与前述实施例类似,在此不进行赘述。
与前述实施例不同的是,在本实施例中还将根据人体属性类型之间的关联性,对于识别结果进行人体属性的补充识别。其中,人体属性类型之间的逻辑关联性可为预先设置的,本实施例对此不进行限制。
具体来说,图5是本申请实施例提供的另一种人体属性识别模型的模型结构示意图,如图5所示的,在该人体属性识别模型中包括有浅层特征提取网络,分别与该浅层特征网络连接的高层特征分支网络以及多属性间逻辑处理单元。
在人体属性识别模型的高层特征分支网络对浅层特征信息进行处理时,其有可能出现无法能够得到有效识别结果的预测向量。这就使得,在人体属性识别模型的可识别人体属性类型范围中,有部分的人体属性类型无法被识别出。
因此,在本实施例中将首先对是否存在有这些未获得识别结果的人体属性类型进行判定,然后基于判定结果确定是否执行补充识别的处理。
进一步的,在补充识别中,可利用人体属性类型之间的逻辑关系进行识别结果的补充。举例来说,以某待识别行人图像中行人上半身不在图像内为例,若步骤204中得到的识别结果为[上方截断属性-有截断],而由于图像的特殊性,其在[上身服饰]以及[上身颜色]等人体属性类型的识别结果中均无法识别出有效结果,此时,可结合[上方截断属性-有截断]的识别结果,将[上身服饰]以及[上身颜色]均置为空,即得到[上身服饰-空]以及[上身颜色-空]。
通过这样的方式,能够对于人体属性类型的识别结果进行进一步的补充识别,从而使得识别结果更加全面和准确。
在上述实施例的基础上,为了进一步说明本申请对于人体属性识别模型的训练过程,在本申请提供的人体属性识别方法中,还包括:
步骤105、建立所述人体属性识别模型,并获得不同人体属性类型的训练样本图像;其中,所述人体属性识别模型包括浅层特征提取网络、多个高层特征分支网络;
步骤106、利用不同人体属性类型的训练样本图像,对由所述浅层特征提取网络和不同高层特征分支网络构成的对不同人体属性类型进行识别的神经网络模型进行训练,获得所述训练完毕的人体属性识别模型。
其中,所述步骤105中的人体属性识别模型为基于残差网络的神经网络模型。
其浅层特征提取网络可包括有残差网络中的前13个Residual Block;而每个高层特征分支网络将包括有残差网络中的后3个Residual Block、一层全局平均池化层以及一层全连接层构成。
通过这样的网络架构能够很好的实现前述的效果。特别的,在训练时,也将利用不同人体属性类型的训练样本图像,对由同一浅层特征提取网络和不同高层特征分支网络构成的对不同人体属性类型进行识别的神经网络模型分别进行训练,以保证每个高层特征分支网络的训练目标是单一的,进而实现对于整个人体属性识别模型的多任务目标的训练,保证其能够对于不同特征需求的人体属性进行分析和识别,既提高了训练效果和训练效率,又保证了模型的稳定性和识别准确性。
实施例二
图6为本申请提供的一种人体属性的识别装置的结构示意图。如图6所示的,该人体属性的识别装置包括:获取模块10、处理模块20、输出模块30;其中,
获取模块10,用于获得待识别行人图像;
处理模块20,用于将所述待识别行人图像输入至训练完毕的人体属性识别模型的浅层特征提取网络,获得待识别行人图像的浅层特征信息;还用于将所述浅层特征信息分别输入至训练完毕的人体属性识别模型的多个高层特征分支网络,获得每个高层特征分支网络所输出的预测向量,其中,所述不同高层特征分支网络可用于输出不同人体属性类型的预测向量;
输出模块30,用于根据各人体属性类型的预测向量,确定待识别行人图像的人体属性的识别结果。
在可选的实施例中,所述输出模块30,具体利用与用于在人体属性识别模型的可识别人体属性类型范围中,确定是否有未获得识别结果的人体属性类型;若有,则根据已获得预测向量的人体属性类型的识别结果,以及各人体属性类型之间的逻辑关联性,获得未获得的人体属性类型的识别结果。
在可选的实施例中,所述输出模块30,具体用于针对每一人体属性类型的预测向量,利用分类函数进行处理,获得每一人体属性类型在不同属性值下的概率值;将概率值最大的属性值作为其相应人体属性类型对应的识别结果。
在可选的实施例中,所述输出模块30,还用于:所述针对每一人体属性类型的预测向量,利用分类函数进行处理,获得每一人体属性类型在不同属性值下的概率值以及置信度;所述概率值最大的属性值以及其置信度将作为其相应人体属性类型对应的识别结果。
在可选的实施例中,所述获取模块10具体用于获得待识别图像;确定所述待识别图像中行人检测框,所述行人检测框用于表示行人在所述待识别图像中的图像位置;对所述行人检测框中的图像进行预处理,获得所述待识别行人图像。
在可选的实施例中,所述获取模块10具体用于获得待识别图像;确定所述待识别图像中行人检测框,所述行人检测框用于表示行人在所述待识别图像中的图像位置;对所述行人检测框中的图像进行预处理,获得所述待识别行人图像。
在可选的实施例中所述处理模块20还用于:
建立所述人体属性识别模型,并获得不同人体属性类型的训练样本图像;其中,所述人体属性识别模型包括浅层特征提取网络、多个高层特征分支网络;
利用不同人体属性类型的训练样本图像,对由所述浅层特征提取网络和不同高层特征分支网络构成的对不同人体属性类型进行识别的神经网络模型进行训练,获得所述训练完毕的人体属性识别模型。
在可选的实施例中,所述人体属性识别模型为基于残差网络的神经网络模型。
本申请提供的识别装置可以执前述所示方法实施例的技术方案,其实现原理和技术效果前述方法实施例类似,在此不再一一赘述。
本申请提供的人体属性的识别装置,通过采用利用无标注的第一行人样本图像对所述无监督特征学习模型进行训练,并根据训练完毕的无监督特征学习模型构建人体属性识别模型,利用有标注的第二行人样本图像人体属性识别模型进行训练,将待识别图像输入训练完毕的人体属性识别模型以获得人体属性识别结果的技术方案,与现有技术相比,由于在构建人体属性识别模型的过程中利用了无监督特征学习模型以及无标注的样本图像,其使得人体属性识别模型的训练样本图像得到扩充,从而使得人体属性模型可对于多样化和高复杂程度的人体属性进行准确识别。
实施例三
根据本申请的实施例,本申请还提供了一种电子设备以及一种可读存储介质。
如图7所示,是根据本申请实施例的数据预下载方法的电子设备的框图。电子设备旨在各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图7所示,该电子设备包括:一个或多个处理器1001、存储器1002,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图7中以一个处理器1001为例。
存储器1002即为本申请所提供的非瞬时计算机可读存储介质。其中,存储器存储有可由至少一个处理器执行的指令,以使至少一个处理器执行本申请所提供的数据预下载方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的数据预下载方法。
存储器1002作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的数据预下载方法对应的程序指令/模块(例如,附图7所示的环境数据获取模块801,特征数据提取模块802,初始危险值预测模块803,最终危险值计算模块804及区域计算模块805)。处理器1001通过运行存储在存储器1002中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的数据预下载方法。
存储器1002可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据图7的电子设备的使用所创建的数据等。此外,存储器1002可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器1002可选包括相对于处理器1001远程设置的存储器,这些远程存储器可以通过网络连接至图7的电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
图7的电子设备还可以包括:输入装置1003和输出装置1004。处理器1001、存储器1002、输入装置1003和输出装置1004可以通过总线或者其他方式连接,图7中以通过总线连接为例。
输入装置1003可接收输入的语音、数字或字符信息,以及产生与图7的电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置1004可以包括语音播放设备、显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
此外,根据本申请的实施例,本申请提供了一种计算机程序产品,程序产品包括:计算机程序,计算机程序存储在可读存储介质中,电子设备的至少一个处理器可以从可读存储介质读取计算机程序,至少一个处理器执行计算机程序使得电子设备执行上述任一实施例提供的方案。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。
Claims (16)
1.一种人体属性的识别方法,包括:
获得待识别行人图像;
将所述待识别行人图像输入至训练完毕的人体属性识别模型的浅层特征提取网络,获得待识别行人图像的浅层特征信息,所述浅层特征信息为不同人体属性类型通用的特征信息,所述训练完毕的人体属性识别模型是通过利用不同人体属性类型的训练样本图像,对由同一浅层特征提取网络和不同高层特征分支网络构成的对不同人体属性类型进行识别的神经网络模型进行分别训练获得的;
将所述浅层特征信息分别输入至训练完毕的人体属性识别模型的多个高层特征分支网络,获得每个高层特征分支网络所输出的预测向量,其中,所述不同高层特征分支网络可用于输出不同人体属性类型的预测向量;
根据各人体属性类型的预测向量,确定待识别行人图像的人体属性的识别结果;
其中,所述根据各人体属性类型的预测向量,确定待识别行人图像的人体属性的识别结果,包括:
在人体属性识别模型的可识别人体属性类型范围中,确定是否有未获得识别结果的人体属性类型;
若有,则根据已获得预测向量的人体属性类型的识别结果,以及各人体属性类型之间的逻辑关联性,获得未获得的人体属性类型的识别结果。
2.根据权利要求1所述的人体属性的识别方法,其中,所述根据各人体属性类型的预测向量,确定待识别行人图像的人体属性的识别结果,包括:
针对每一人体属性类型的预测向量,利用分类函数进行处理,获得每一人体属性类型在不同属性值下的概率值;
将概率值最大的属性值作为其相应人体属性类型对应的识别结果。
3.根据权利要求2所述的人体属性的识别方法,其中,所述针对每一人体属性类型的预测向量,利用分类函数进行处理,获得每一人体属性类型在不同属性值下的概率值,还包括:
所述针对每一人体属性类型的预测向量,利用分类函数进行处理,获得每一人体属性类型在不同属性值下的概率值以及置信度;
相应的,所述识别结果中还包括所述将概率值最大的属性值作为其相应人体属性类型对应的识别结果,还包括:
所述概率值最大的属性值以及其置信度将作为其相应人体属性类型对应的识别结果。
4.根据权利要求1所述的人体属性的识别方法,其中,所述获得待识别行人图像,包括:
获得待识别图像;
确定所述待识别图像中行人检测框,所述行人检测框用于表示行人在所述待识别图像中的图像位置;
对所述行人检测框中的图像进行预处理,获得所述待识别行人图像。
5.根据权利要求4所述的人体属性的识别方法,其中,所述对所述行人检测框中的图像进行预处理,获得所述待识别行人图像,包括:
对所述行人检测框中的图像依次进行尺度缩放处理、像素值归一化处理、均值处理以及方差处理;
处理后的图像构成所述待识别行人图像。
6.根据权利要求1-5任一项所述的人体属性的识别方法,还包括:
建立所述人体属性识别模型,并获得不同人体属性类型的训练样本图像;其中,所述人体属性识别模型包括浅层特征提取网络、多个高层特征分支网络;
利用不同人体属性类型的训练样本图像,对由所述浅层特征提取网络和不同高层特征分支网络构成的对不同人体属性类型进行识别的神经网络模型进行训练,获得所述训练完毕的人体属性识别模型。
7.根据权利要求6所述的人体属性的识别方法,其中,所述人体属性识别模型为基于残差网络的神经网络模型。
8.一种人体属性的识别装置,包括:
获取模块,用于获得待识别行人图像;
处理模块,用于将所述待识别行人图像输入至训练完毕的人体属性识别模型的浅层特征提取网络,获得待识别行人图像的浅层特征信息,所述浅层特征信息为不同人体属性类型通用的特征信息,所述训练完毕的人体属性识别模型是通过利用不同人体属性类型的训练样本图像,对由同一浅层特征提取网络和不同高层特征分支网络构成的对不同人体属性类型进行识别的神经网络模型进行分别训练获得的;还用于将所述浅层特征信息分别输入至训练完毕的人体属性识别模型的多个高层特征分支网络,获得每个高层特征分支网络所输出的预测向量,其中,所述不同高层特征分支网络可用于输出不同人体属性类型的预测向量;
输出模块,用于根据各人体属性类型的预测向量,确定待识别行人图像的人体属性的识别结果;
其中,所述输出模块,具体利用与用于在人体属性识别模型的可识别人体属性类型范围中,确定是否有未获得识别结果的人体属性类型;若有,则根据已获得预测向量的人体属性类型的识别结果,以及各人体属性类型之间的逻辑关联性,获得未获得的人体属性类型的识别结果。
9.根据权利要求8所述的人体属性的识别装置,其中,所述输出模块,具体用于针对每一人体属性类型的预测向量,利用分类函数进行处理,获得每一人体属性类型在不同属性值下的概率值;将概率值最大的属性值作为其相应人体属性类型对应的识别结果。
10.根据权利要求9所述的人体属性的识别装置,其中,所述输出模块,还用于:所述针对每一人体属性类型的预测向量,利用分类函数进行处理,获得每一人体属性类型在不同属性值下的概率值以及置信度;所述概率值最大的属性值以及其置信度将作为其相应人体属性类型对应的识别结果。
11.根据权利要求8所述的人体属性的识别装置,其中,所述获取模块具体用于获得待识别图像;确定所述待识别图像中行人检测框,所述行人检测框用于表示行人在所述待识别图像中的图像位置;对所述行人检测框中的图像进行预处理,获得所述待识别行人图像。
12.根据权利要求11所述的人体属性的识别装置,其中,所述获取模块具体用于对所述行人检测框中的图像依次进行尺度缩放处理、像素值归一化处理、均值处理以及方差处理;处理后的图像构成所述待识别行人图像。
13.根据权利要求8-12任一项所述的人体属性的识别装置,所述处理模块还用于:
建立所述人体属性识别模型,并获得不同人体属性类型的训练样本图像;其中,所述人体属性识别模型包括浅层特征提取网络、多个高层特征分支网络;
利用不同人体属性类型的训练样本图像,对由所述浅层特征提取网络和不同高层特征分支网络构成的对不同人体属性类型进行识别的神经网络模型进行训练,获得所述训练完毕的人体属性识别模型。
14.根据权利要求13所述的人体属性的识别装置,其中,所述人体属性识别模型为基于残差网络的神经网络模型。
15. 一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-7中任一项所述的方法。
16.一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行权利要求1-7中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010604378.8A CN111783619B (zh) | 2020-06-29 | 2020-06-29 | 人体属性的识别方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010604378.8A CN111783619B (zh) | 2020-06-29 | 2020-06-29 | 人体属性的识别方法、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111783619A CN111783619A (zh) | 2020-10-16 |
CN111783619B true CN111783619B (zh) | 2023-08-11 |
Family
ID=72760235
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010604378.8A Active CN111783619B (zh) | 2020-06-29 | 2020-06-29 | 人体属性的识别方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111783619B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114387633A (zh) * | 2020-10-19 | 2022-04-22 | 北京澎思科技有限公司 | 面部属性识别方法、装置和计算机可读存储介质 |
CN112528828A (zh) * | 2020-12-04 | 2021-03-19 | 阳光保险集团股份有限公司 | 吸烟者智能识别方法及装置 |
CN112883880B (zh) * | 2021-02-25 | 2022-08-19 | 电子科技大学 | 基于人体结构多尺度分割的行人属性识别方法、存储介质和终端 |
CN115082963A (zh) * | 2022-06-27 | 2022-09-20 | 重庆紫光华山智安科技有限公司 | 人体属性识别模型训练及人体属性识别方法、相关装置 |
CN115131825A (zh) * | 2022-07-14 | 2022-09-30 | 北京百度网讯科技有限公司 | 人体属性的识别方法、装置、电子设备和存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108921022A (zh) * | 2018-05-30 | 2018-11-30 | 腾讯科技(深圳)有限公司 | 一种人体属性识别方法、装置、设备及介质 |
WO2019041360A1 (zh) * | 2017-09-04 | 2019-03-07 | 华为技术有限公司 | 行人属性识别与定位方法以及卷积神经网络系统 |
CN109522790A (zh) * | 2018-10-08 | 2019-03-26 | 百度在线网络技术(北京)有限公司 | 人体属性识别方法、装置、存储介质及电子设备 |
CN110175595A (zh) * | 2019-05-31 | 2019-08-27 | 北京金山云网络技术有限公司 | 人体属性识别方法、识别模型训练方法及装置 |
CN110555481A (zh) * | 2019-09-06 | 2019-12-10 | 腾讯科技(深圳)有限公司 | 一种人像风格识别方法、装置和计算机可读存储介质 |
CN110991380A (zh) * | 2019-12-11 | 2020-04-10 | 腾讯科技(深圳)有限公司 | 人体属性识别方法、装置、电子设备以及存储介质 |
WO2020114118A1 (zh) * | 2018-12-07 | 2020-06-11 | 深圳光启空间技术有限公司 | 面部属性识别方法、装置、存储介质及处理器 |
CN111274945A (zh) * | 2020-01-19 | 2020-06-12 | 北京百度网讯科技有限公司 | 一种行人属性的识别方法、装置、电子设备和存储介质 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10163042B2 (en) * | 2016-08-02 | 2018-12-25 | International Business Machines Corporation | Finding missing persons by learning features for person attribute classification based on deep learning |
US11010902B2 (en) * | 2018-06-04 | 2021-05-18 | University Of Central Florida Research Foundation, Inc. | Capsules for image analysis |
-
2020
- 2020-06-29 CN CN202010604378.8A patent/CN111783619B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019041360A1 (zh) * | 2017-09-04 | 2019-03-07 | 华为技术有限公司 | 行人属性识别与定位方法以及卷积神经网络系统 |
CN108921022A (zh) * | 2018-05-30 | 2018-11-30 | 腾讯科技(深圳)有限公司 | 一种人体属性识别方法、装置、设备及介质 |
CN109522790A (zh) * | 2018-10-08 | 2019-03-26 | 百度在线网络技术(北京)有限公司 | 人体属性识别方法、装置、存储介质及电子设备 |
WO2020114118A1 (zh) * | 2018-12-07 | 2020-06-11 | 深圳光启空间技术有限公司 | 面部属性识别方法、装置、存储介质及处理器 |
CN110175595A (zh) * | 2019-05-31 | 2019-08-27 | 北京金山云网络技术有限公司 | 人体属性识别方法、识别模型训练方法及装置 |
CN110555481A (zh) * | 2019-09-06 | 2019-12-10 | 腾讯科技(深圳)有限公司 | 一种人像风格识别方法、装置和计算机可读存储介质 |
CN110991380A (zh) * | 2019-12-11 | 2020-04-10 | 腾讯科技(深圳)有限公司 | 人体属性识别方法、装置、电子设备以及存储介质 |
CN111274945A (zh) * | 2020-01-19 | 2020-06-12 | 北京百度网讯科技有限公司 | 一种行人属性的识别方法、装置、电子设备和存储介质 |
Non-Patent Citations (1)
Title |
---|
Yunfan Liu等.Attribute-Aware Face Aging With Wavelet-Based Generative Adversarial Networks.2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR).2020,全文. * |
Also Published As
Publication number | Publication date |
---|---|
CN111783619A (zh) | 2020-10-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111783619B (zh) | 人体属性的识别方法、装置、设备及存储介质 | |
CN111783870B (zh) | 人体属性的识别方法、装置、设备及存储介质 | |
CN111783620B (zh) | 表情识别方法、装置、设备及存储介质 | |
CN111259751B (zh) | 基于视频的人体行为识别方法、装置、设备及存储介质 | |
CN112052186B (zh) | 目标检测方法、装置、设备以及存储介质 | |
CN111783605B (zh) | 一种人脸图像识别方法、装置、设备及存储介质 | |
CN111709873B (zh) | 图像转换模型生成器的训练方法和装置 | |
CN111862030B (zh) | 一种人脸合成图检测方法、装置、电子设备及存储介质 | |
CN111833340A (zh) | 图像检测方法、装置、电子设备及存储介质 | |
CN112001248B (zh) | 主动交互的方法、装置、电子设备和可读存储介质 | |
CN113378770B (zh) | 手势识别方法、装置、设备、存储介质 | |
CN112784760B (zh) | 人体行为识别方法、装置、设备以及存储介质 | |
CN112561879A (zh) | 模糊度评价模型训练方法、图像模糊度评价方法及装置 | |
CN111862031A (zh) | 一种人脸合成图检测方法、装置、电子设备及存储介质 | |
Lahiani et al. | Hand pose estimation system based on Viola-Jones algorithm for android devices | |
Gheitasi et al. | Estimation of hand skeletal postures by using deep convolutional neural networks | |
CN111932530B (zh) | 三维对象检测方法、装置、设备和可读存储介质 | |
CN111783644B (zh) | 检测方法、装置、设备和计算机存储介质 | |
CN117351192A (zh) | 一种对象检索模型训练、对象检索方法、装置及电子设备 | |
CN115937993B (zh) | 活体检测模型训练方法、活体检测方法、装置和电子设备 | |
CN116403285A (zh) | 动作识别方法、装置、电子设备以及存储介质 | |
CN114173158B (zh) | 人脸识别方法、云端设备、客户端设备、电子设备及介质 | |
CN113255512B (zh) | 用于活体识别的方法、装置、设备以及存储介质 | |
CN112560848B (zh) | 兴趣点poi预训练模型的训练方法、装置及电子设备 | |
CN111639599B (zh) | 物体图像挖掘方法、装置、设备以及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |