CN108921022A - 一种人体属性识别方法、装置、设备及介质 - Google Patents
一种人体属性识别方法、装置、设备及介质 Download PDFInfo
- Publication number
- CN108921022A CN108921022A CN201810541546.6A CN201810541546A CN108921022A CN 108921022 A CN108921022 A CN 108921022A CN 201810541546 A CN201810541546 A CN 201810541546A CN 108921022 A CN108921022 A CN 108921022A
- Authority
- CN
- China
- Prior art keywords
- attribute
- human body
- convolutional neural
- neural network
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012549 training Methods 0.000 claims abstract description 122
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 102
- 238000000034 method Methods 0.000 claims abstract description 54
- 238000012544 monitoring process Methods 0.000 claims abstract description 26
- 210000000746 body region Anatomy 0.000 claims description 45
- 230000006870 function Effects 0.000 claims description 20
- 230000005284 excitation Effects 0.000 claims description 18
- 238000004364 calculation method Methods 0.000 claims description 15
- 238000004590 computer program Methods 0.000 claims description 12
- 238000011176 pooling Methods 0.000 claims description 11
- 238000010586 diagram Methods 0.000 description 11
- 238000012545 processing Methods 0.000 description 10
- 239000011159 matrix material Substances 0.000 description 7
- 238000012986 modification Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 238000003062 neural network model Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000006399 behavior Effects 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 241000392928 Parachromis friedrichsthalii Species 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000000513 principal component analysis Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 230000002087 whitening effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07F—COIN-FREED OR LIKE APPARATUS
- G07F19/00—Complete banking systems; Coded card-freed arrangements adapted for dispensing or receiving monies or the like and posting such transactions to existing accounts, e.g. automatic teller machines
- G07F19/20—Automatic teller machines [ATMs]
- G07F19/209—Monitoring, auditing or diagnose of functioning of ATMs
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Human Computer Interaction (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Business, Economics & Management (AREA)
- Accounting & Taxation (AREA)
- Biodiversity & Conservation Biology (AREA)
- Image Analysis (AREA)
- Finance (AREA)
Abstract
本发明公开了一种人体属性识别方法、装置、设备及介质,应用于图像识别技术领域,用以解决多个人体属性无法同时识别的问题。该方法为:确定监控图像中的人体区域图像;将人体区域图像输入多属性卷积神经网络模型,得到人体区域图像中的各个人体属性对应于预先定义的每一个属性值的概率;其中,多属性卷积神经网络模型是利用多属性卷积神经网络对预先获得的训练图像进行多属性识别训练得到的;基于人体区域图像中的各个人体属性对应于预先定义的每一个属性值的概率,确定人体区域图像中的各个人体属性的属性值,这样,利用多属性卷积神经网络模型来识别人体属性,不仅实现了多个人体属性的同时识别,也提高了多个人体属性的识别效率。
Description
技术领域
本发明涉及图像识别技术领域,尤其涉及一种人体属性识别方法、装置、设备及介质。
背景技术
人体属性识别是对人物的性别、年龄、衣物的类型和颜色等的识别,被广泛应用于危险行为预警、交通违章监控、工业安防和自动售货机、自动柜员机(Automatic TellerMachine,ATM)、商场和车站等公共场所的目标人物锁定等领域。
虽然,目前的人体属性识别技术已经取得了很大的成就,但是,大多数的人体属性识别技术都是针对单一的人体属性进行识别,无法同时识别多个人体属性。
发明内容
本发明实施例提供了一种人体属性识别方法、装置、设备及介质,用以解决现有技术中的人体属性识别方法无法同时识别多个人体属性的问题。
本发明实施例提供的具体技术方案如下:
第一方面,本发明实施例提供了一种人体属性识别方法,包括:
确定监控图像中的人体区域图像;
将人体区域图像输入多属性卷积神经网络模型,得到人体区域图像中的各个人体属性对应于预先定义的每一个属性值的概率;其中,多属性卷积神经网络模型是利用多属性卷积神经网络对预先获得的训练图像进行多属性识别训练得到的;
基于人体区域图像中的各个人体属性对应于预先定义的每一个属性值的概率,确定人体区域图像中的各个人体属性的属性值。
较佳的,利用多属性卷积神经网络对预先获得的训练图像进行多属性识别训练得到多属性卷积神经网络模型,包括:
根据预先定义的各个人体属性的属性值,并依次通过多属性卷积神经网络的数据输入层、卷积计算层、激励层和全连接层,对预先获得的训练图像进行多属性识别训练,得到多属性卷积神经网络模型;或者,
根据预先定义的各个人体属性的属性值,并依次通过多属性卷积神经网络的数据输入层、卷积计算层、激励层和全局平均池化层,对预先获得的训练图像进行多属性识别训练,得到多属性卷积神经网络模型。
较佳的,该人体属性识别方法还包括:
确定多属性卷积神经网络模型输出的训练图像的各个人体属性的预测属性值与预先定义的各个人体属性的真实属性值之间的差异度;
根据差异度,调整多属性卷积神经网络模型对应的各层网络参数。
较佳的,确定多属性卷积神经网络模型输出的训练图像的各个人体属性的预测属性值与预先定义的各个人体属性的真实属性值之间的差异度,包括:
利用交叉熵损失函数,确定各个人体属性的预测属性值与预先定义的各个人体属性的真实属性值之间的差异度。
较佳的,该人体属性识别方法还包括:
当增加新人体属性和/或为原人体属性增加新属性值时,按照设定比例选取新训练图像和原训练图像为训练图像;
利用多属性卷积神经网络对训练图像进行多属性识别训练,得到增加有新人体属性和/或新属性值的多属性卷积神经网络模型。
较佳的,基于人体区域图像中的各个人体属性对应于预先定义的每一个属性值的概率,确定人体区域图像中的各个人体属性的属性值,包括:
针对人体区域图像中的每一个人体属性,从人体属性对应于预先定义的每一个属性值的概率中,选取对应的概率最大的属性值作为人体属性的属性值。
第二方面,本发明实施例提供了一种人体属性识别装置,包括:
确定单元,用于确定监控图像中的人体区域图像;
获取单元,用于将人体区域图像输入多属性卷积神经网络模型,得到人体区域图像中的各个人体属性对应于预先定义的每一个属性值的概率;其中,多属性卷积神经网络模型是利用多属性卷积神经网络对预先获得的训练图像进行多属性识别训练得到的;
识别单元,用于基于人体区域图像中的各个人体属性对应于预先定义的每一个属性值的概率,确定人体区域图像中的各个人体属性的属性值。
较佳的,该人体属性识别装置还包括:
训练单元,用于根据预先定义的各个人体属性的属性值,并依次通过多属性卷积神经网络的数据输入层、卷积计算层、激励层和全连接层,对预先获得的训练图像进行多属性识别训练,得到多属性卷积神经网络模型;或者,根据预先定义的各个人体属性的属性值,并依次通过多属性卷积神经网络的数据输入层、卷积计算层、激励层和全局平均池化层,对预先获得的训练图像进行多属性识别训练,得到多属性卷积神经网络模型。
较佳的,该人体属性识别装置还包括:
调节单元,用于确定多属性卷积神经网络模型输出的训练图像的各个人体属性的预测属性值与预先定义的各个人体属性的真实属性值之间的差异度,并根据差异度,调整多属性卷积神经网络模型对应的各层网络参数。
较佳的,在确定多属性卷积神经网络模型输出的训练图像的各个人体属性的预测属性值与预先定义的各个人体属性的真实属性值之间的差异度时,调节单元具体用于:
利用交叉熵损失函数,确定各个人体属性的预测属性值与预先定义的各个人体属性的真实属性值之间的差异度。
较佳的,训练单元还用于:
当增加新人体属性和/或为原人体属性增加新属性值时,按照设定比例选取新训练图像和原训练图像为训练图像;
利用多属性卷积神经网络对训练图像进行多属性识别训练,得到增加有新人体属性和/或新属性值的多属性卷积神经网络模型。
较佳的,在基于人体区域图像中的各个人体属性对应于预先定义的每一个属性值的概率,确定人体区域图像中的各个人体属性的属性值时,识别单元具体用于:
针对人体区域图像中的每一个人体属性,从人体属性对应于预先定义的每一个属性值的概率中,选取对应的概率最大的属性值作为人体属性的属性值。
第三方面,本发明实施例提供了一种人体属性识别设备,包括存储器、处理器和存储在存储器上的计算机程序,处理器执行计算机程序时实现上述人体属性识别方法的步骤。
第四方面,本发明实施例提供了一种非易失性计算机存储介质,该非易失性计算机存储介质存储有可执行程序,该可执行程序被处理器执行实现上述人体属性识别方法的步骤。
本发明实施例的有益效果如下:
本发明实施例中,建立了一个多属性卷积神经网络模型,利用该多属性卷积神经网络模型来识别人体区域图像中的各个人体属性,不仅解决了现有技术中的人体属性识别方法无法同时识别多个人体属性的问题,还提高了多个人体属性的识别效率。
附图说明
图1A为本发明实施例提供的多属性卷积神经网络模型的训练方法的流程示意图;
图1B为采用本发明实施例提供的多属性卷积神经网络模型识别人体属性时的输入输出与采用多属性多模型方式识别人体属性时的输入输出的对比图;
图2为本发明实施例提供的人体属性识别方法的流程示意图;
图3为以“交通违章监控”为具体应用场景时,本发明实施例提供的人体属性识别方法的流程示意图;
图4为本发明实施例提供的人体属性识别装置的功能结构示意图;
图5为本发明实施例提供的人体属性识别设备的硬件结构示意图。
具体实施方式
在实际应用中,通常是根据多个人体属性来锁定目标人物,可见,精确地识别出多个人体属性的属性值,对于目标人物的锁定来说尤为重要。目前,主要采用多属性多模型的方式来识别各个人体属性,具体的,针对每一个人体属性分别建立属性识别模型,即一个人体属性对应一个属性识别模型,这样,在视频监控过程中,可以实时采集监控图像并检测监控图像中的人体区域图像,从而通过建立的各个属性识别模型,分别对人体区域图像中的各个人体属性进行识别,进而达到多属性识别的目的。然而,在具体实践过程中,本发明的发明人发现,虽然这种多属性多模型的方式在一定程度上能够实现多属性识别,但是,需要针对每一个人体属性分别建立一个属性识别模型,预处理操作较为繁琐,而且,在多属性识别过程中,需要利用预先建立的各个属性识别模型分别对相应的人体属性进行识别,无法实现对多个人体属性的同时识别,识别效率较低。
为此,本发明的发明人想到,利用多属性卷积神经网络对预先获得的训练图像进行多属性识别训练,以此来建立一个多属性卷积神经网络模型,这样,在视频监控过程中,就可以实时采集监控图像,并在检测到监控图像中的人体区域图像时,通过多属性卷积神经网络模型同时对人体区域图像中的各个人体属性进行识别,从而实现了多个人体属性同时识别的功能,有效地提高了多个人体属性的识别效率。
值得说的是,本发明实施例提供的人体属性识别方法可以应用于多种视频监控场景,比如,危险行为监控、交通违章监控、工业安防监控和自动售货机、ATM、商场和车站等公共场所的监控等,需要注意的是,上述提及的应用场景仅是为了便于理解本发明的精神和原理而示出,本发明实施例在此方面不受任何限制。相反,本发明实施例可以应用于适用的任何场景。
在简单的介绍了本发明实施例提供的人体属性识别方法和该人体属性识别方法的应用场景之后,接下来,结合本发明实施例中的附图,对本发明实施例提供的人体属性识别方法进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,并不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
为了便于理解本发明,首先对本发明实施例中涉及的部分技术用语进行说明。
1、人体属性,为能够同时被计算机和人感知的人体视觉特征,比如,性别、年龄、上衣纹理、上衣颜色、袖子类型、下衣纹理、下衣颜色、下衣长短、下衣类型等。
2、人体属性的属性值,为赋予人体属性的值,比如,人体属性—性别的属性值为男、女,人体属性—年龄的属性值为婴儿、儿童、青年、中年、老年等,人体属性—上衣纹理的属性值为纯色、横条纹、竖条纹、格子、大色块等,人体属性—上衣颜色的属性值为红、黄、蓝、黑、混色等。
3、属性识别模型,为能够同时识别出多个人体属性的属性值的模型,本发明实施例以属性识别模型是多属性卷积神经网络模型为例进行说明。
4、多属性卷积神经网络模型,为利用多属性卷积神经网络对预先获得的训练图像进行多属性识别训练得到的、能够同时识别出多个人体属性的属性识别模型。
5、多属性卷积神经网络,为深度学习的前馈神经网络,包括数据输入层、卷积计算层、激励层和全连接层,或者,包括数据输入层、卷积计算层、激励层和全局平均池化层。
其次,基于本发明实施例提供的人体属性识别方法采用的是多属性卷积神经网络模型,而该多属性卷积神经网络模型是利用多属性卷积神经网络对预先获得的训练图像进行多属性识别训练得到的,所以,接下来,对本发明示例性实施方式的多属性卷积神经网络模型的训练方法进行说明。参阅图1A所示,多属性卷积神经网络模型的训练方法的流程如下:
步骤101:采集训练图像。具体的,可以直接从存储的监控视频中直接截取监控图像作为训练图像。
步骤102:定义各个人体属性以及各个人体属性对应的属性值。
例如:将人体属性定义为性别、年龄、人脸朝向、上衣纹理、上衣颜色、袖子类型、包型、下衣颜色、下衣长短、下衣类型。
将人体属性—性别的属性值定义为男、女,人体属性—年龄的属性值定义为儿童、青年、中年、老年;将人体属性—人脸朝向的属性值定义为正向、背向;将人体属性—上衣纹理的属性值定义为纯色、格子、大色块;将人体属性—上衣颜色的属性值定义为红、黄、绿、蓝、黑、灰白;将人体属性—袖子类型的属性值定义为长袖、短袖;将人体属性—包型的属性值定义为双肩包、斜挎包、手拎包、无包;将人体属性—下衣颜色的属性值定义为纯色、格子、大色块;将人体属性—上衣颜色的属性值定义为黑、灰白、彩色;将人体属性—下衣长短的属性值定义为长、短;将人体属性—上衣颜色的属性值定义为黑、灰白、彩色;将人体属性—下衣类型的属性值定义为裤子、裙子,等等,具体如表1所示:
表1.
步骤103:根据各个人体属性的属性值,确定人体属性向量。
例如:根据上述表1中的各个人体属性的属性值,可以确定出一个1×30的人体属性向量,即人体属性向量=(性别男,性别女,儿童,青年,中年,老年,人脸正向,人脸背向,上衣纹理纯色,上衣纹理格子,上衣纹理大色块,上衣红色,上衣黄色,上衣绿色,上衣颜色,上衣黑色,上衣灰白色,上衣长袖,上衣短袖,双肩包,斜挎包,手拎包,无包,下衣黑色,下衣灰白色,下衣彩色,下衣长,下衣短,下衣裤子,下衣裙子)。
步骤104:将训练图像和人体属性向量输入多属性卷积神经网络的数据输入层。
步骤105:多属性卷积神经网络的数据输入层对训练图像进行去均值、归一化、主成分分析(Principal Component Analysis,PCV)和白化等预处理。
步骤106:多属性卷积神经网络的卷积计算层对数据输入层输出的训练图像进行特征提取,得到训练图像对应的各个特征矩阵。
步骤107:多属性卷积神经网络的激励层对卷积计算层输出的各个特征矩阵进行非线性映射处理,从而将各个特征矩阵中的特征值映射到一定范围内。具体的,在进行非线性映射时,可以采用但不限于Sigmoid函数、Tanh函数、ReLU函数等作为激励函数。优选的,可以采用ReLU函数作为激励函数,对卷积计算层输出的各个特征矩阵进行非线性映射处理。
步骤108:多属性卷积神经网络的全连接层或者全局平均池化层根据激励层输出的各个特征矩阵,得到训练图像中的各个人体属性对应于预先定义的每一个属性值的概率。
下面仅以通过多属性卷积神经网络的全连接层确定训练图像中的各个人体属性对应于预先定义的每一个属性值的概率为例进行说明,具体的,可以采用但不限于以下方式:设置一个偏置量以及为各个人体属性分别设置一个权重矩阵,并根据激励层输出的各个特征矩阵以及预先设置的偏置量和各个权重矩阵,确定训练图像中的各个人体属性对应于预先定义的每一个属性值的概率。
步骤109:基于训练图像中的各个人体属性对应于预先定义的每一个属性值的概率,确定训练图像中的各个人体属性的预测属性值,并根据训练图像中的各个人体属性的预测属性值,组成训练图像的预测属性值向量。
具体的,在基于训练图像中的各个人体属性对应于预先定义的每一个属性值的概率,确定训练图像中的各个人体属性的预测属性值时,可以采用但不限于以下方式:针对训练图像中的每一个人体属性,从该人体属性对应于预先定义的每一个属性值的概率中,选取对应的概率最大的属性值作为该人体属性的预测属性值。
步骤110:确定全连接层或者全局平均池化层输出的预测属性值向量中的各个人体属性的预测属性值与预先定义的各个人体属性的真实属性值之间的差异度。
优选的,在确定各个人体属性的预测属性值与真实属性值之间的差异度时,可以采用但不限于如下述公式(1)所示的交叉熵损失函数来确定:
其中,在上述公式(1)中,L表示交叉熵损失函数的值,即差异度,n表示训练图像的个数,x表示第x个训练图像,m表示预先定义的人体属性的个数,yi和ai分别表示第i个人体属性的真实属性值和预测属性值。
步骤111:根据确定出的差异度,调整训练过程中使用的各层网络参数。其中,各层网络参数包括但不限于:各卷积计算层的内核参数和初始偏置矩阵、各激励层的参数、各全连接层或者全局平均池化层的参数等。
步骤112:利用调整网络参数后的多属性卷积神经网络对后续的训练图片进行多属性识别训练,如此循环往复,直至各个人体属性的预测属性值与真实属性值之间的差异度不大于预设阈值为止。
此时,多属性卷积神经网络对应的各层网络参数均为最优值,至此,多属性卷积神经网络模型的训练过程结束,并得到了各层网络参数均为最优值的多属性卷积神经网络模型。
值得说的是,在多属性卷积神经网络模型的整个训练过程中,没有使用池化层对特征数据进行压缩,尽可能地避免了由于使用池化层对特征数据进行压缩导致整个多属性卷积神经网络模型的表达能力较差的问题,有效地提高了人体属性识别的精确度。
此外,当增加新人体属性和/或为原人体属性增加新属性值时,可以按照设定比例选取新训练图像和原训练图像为训练图像,并利用多属性卷积神经网络对这些训练图像进行多属性识别训练,得到增加有新人体属性和/或新属性值的多属性卷积神经网络模型。这样,采用在新训练图像中增加原训练图像的方法,来增加新人体属性和/或新属性值的训练图像的数量,可以有效地避免由于新训练图像的数量较少导致训练结果不准确的问题,间接地提高了多属性卷积神经网络模型识别人体属性的精确度。
参阅图1B所示,为采用本发明实施例提供的多属性卷积神经网络模型识别人体属性时的输入输出与采用多属性多模型方式识别人体属性时的输入输出的对比图,相对于多属性多模型的人体属性识别方式,本发明实施例提供的多属性卷积神经网络模型能够同时识别出多个人体属性,不仅解决了多属性多模型的人体属性识别方式存在的无法同时识别多个人体属性的问题,还尽可能地提高了多个人体属性的识别效率。
在建立了多属性卷积神经网络模型之后,即可利用该多属性卷积神经网络模型同时对多个人体属性进行,具体的,参阅图2所示,本发明示例性实施方式的人体属性识别方法的流程如下:
步骤201:确定监控图像中的人体区域图像。
步骤202:将人体区域图像输入多属性卷积神经网络模型,得到人体区域图像中的各个人体属性对应于预先定义的每一个属性值的概率。
其中,多属性卷积神经网络模型是利用多属性卷积神经网络对预先获得的训练图像进行多属性识别训练得到的,具体的,多属性卷积神经网络模型的训练方法与上述描述的训练方法相同,在此不再赘述。
步骤203:基于人体区域图像中的各个人体属性对应于预先定义的每一个属性值的概率,确定人体区域图像中的各个人体属性的属性值。
具体的,可以针对人体区域图像中的每一个人体属性,从该人体属性对应于预先定义的每一个属性值的概率中,选取对应的概率最大的属性值作为该人体属性的属性值。
下面以“交通违章监控”为具体应用场景,对本发明示例性实施方式的人体属性识别方法进行说明,具体的,参阅图3所示,本发明示例性实施方式的人体属性识别方法的流程如下:
步骤301:从摄像头采集到的监控视频中截取监控图像。
步骤302:确定监控图像中的人体区域图像。
步骤303:将人体区域图像输入多属性卷积神经网络模型,得到人体区域图像中的各个人体属性对应于预先定义的每一个属性值的概率,并基于人体区域图像中的各个人体属性对应于预先定义的每一个属性值的概率,确定人体区域图像中的各个人体属性的属性值。
针对人体区域图像中的每一个人体属性,从该人体属性对应于预先定义的每一个属性值的概率中,选取对应的概率最大的属性值作为该人体属性的属性值,从而获得人体区域图像中的各个人体属性的属性值。
步骤304:根据人体区域图像中的各个人体属性的属性值,锁定监控图像中的目标人物,并在监控图像上标注该目标人物的各个人体属性的属性值和交通违章行为等信息。
较佳的,可以在确定该目标人物确实有交通违章行为时,在违章处理下拉框中选取确认违章,并根据识别出的该目标人物的各个人体属性的属性值和交通违章行为,生成交通违章记录,以及在监控图像上标注该目标人物的各个人体属性的属性值和交通违章行为等信息,当然,在针对该目标人物的交通违章行为调派相关人出警后,还可以在违章处理下拉框中选取已出警,从而结束此次交通违章行为的处理;而在确定该目标人物确实没有交通违章行为时,可以在违章处理下拉框中选取忽略违章,并结束此次交通违章行为的处理,此时,不会生成交通违章记录。
基于上述实施例,本发明实施例提供了一种人体属性识别装置,参阅图4所示,该人体属性识别装置至少包括:
确定单元401,用于确定监控图像中的人体区域图像;
获取单元402,用于将人体区域图像输入多属性卷积神经网络模型,得到人体区域图像中的各个人体属性对应于预先定义的每一个属性值的概率;其中,多属性卷积神经网络模型是利用多属性卷积神经网络对预先获得的训练图像进行多属性识别训练得到的;
识别单元403,用于基于人体区域图像中的各个人体属性对应于预先定义的每一个属性值的概率,确定人体区域图像中的各个人体属性的属性值。
较佳的,该人体属性识别装置还包括:
训练单元404,用于根据预先定义的各个人体属性的属性值,并依次通过多属性卷积神经网络的数据输入层、卷积计算层、激励层和全连接层,对预先获得的训练图像进行多属性识别训练,得到多属性卷积神经网络模型;或者,根据预先定义的各个人体属性的属性值,并依次通过多属性卷积神经网络的数据输入层、卷积计算层、激励层和全局平均池化层,对预先获得的训练图像进行多属性识别训练,得到多属性卷积神经网络模型。
较佳的,该人体属性识别装置还包括:
调节单元405,用于确定多属性卷积神经网络模型输出的训练图像的各个人体属性的预测属性值与预先定义的各个人体属性的真实属性值之间的差异度,并根据差异度,调整多属性卷积神经网络模型对应的各层网络参数。
较佳的,在确定多属性卷积神经网络模型输出的训练图像的各个人体属性的预测属性值与预先定义的各个人体属性的真实属性值之间的差异度时,调节单元405具体用于:
利用交叉熵损失函数,确定各个人体属性的预测属性值与预先定义的各个人体属性的真实属性值之间的差异度。
较佳的,训练单元404还用于:
当增加新人体属性和/或为原人体属性增加新属性值时,按照设定比例选取新训练图像和原训练图像为训练图像;
利用多属性卷积神经网络对训练图像进行多属性识别训练,得到增加有新人体属性和/或新属性值的多属性卷积神经网络模型。
较佳的,在基于人体区域图像中的各个人体属性对应于预先定义的每一个属性值的概率,确定人体区域图像中的各个人体属性的属性值时,识别单元403具体用于:
针对人体区域图像中的每一个人体属性,从人体属性对应于预先定义的每一个属性值的概率中,选取对应的概率最大的属性值作为人体属性的属性值。
需要说明的是,由于上述人体属性识别装置解决技术问题的原理与上述人体属性识别方法相似,因此,上述人体属性识别装置的实施可以参见上述人体属性识别方法的实施,重复之处不再赘述。
此外,本发明实施例还提供了一种人体属性识别设备,参阅图5所示,该人体属性识别设备至少包括:存储器501、处理器502和存储在存储器502上的计算机程序,处理器502执行该计算机程序时实现上述人体属性识别方法的步骤。
较佳的,该人体属性识别设备还可以包括输入装置503和输出装置504等。输入装置503可以包括触控笔、键盘、鼠标、触摸屏等;输出装置504可以包括显示设备,如液晶显示器(Liquid Crystal Display,LCD)、阴极射线管(Cathode Ray Tube,CRT),触摸屏等。
本发明实施例中不限定存储器501,处理器502、输入装置503和输出装置504之间的具体连接介质。本发明实施例在图5中以存储器501,处理器502、输入装置503和输出装置504之间通过总线505连接,总线505在图5中以粗线表示,其它部件之间的连接方式,仅是进行示意性说明,并不引以为限。其中,总线505可以分为地址总线、数据总线、控制总线等。为便于表示,图5中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
接下来,对本发明示例性实施方式的非易失性计算机可读存储介质进行介绍。本发明实施例提供了一种非易失性计算机可读存储介质,该非易失性计算机可读存储介质存储有计算机可执行指令,该可执行程序被处理器执行实现上述人体属性识别方法的步骤。具体地,该可执行程序可以内置在人体属性识别设备中,这样,人体属性识别设备就可以通过执行内置的可执行程序实现上述人体属性识别方法的步骤,当然,该可执行程序也可以作为一个应用软件下载并安装到人体属性识别设备上,这样,人体属性识别设备就可以通过下载并安装的可执行程序实现上述人体属性识别方法的步骤。
此外,本发明实施例提供的人体属性识别方法还可以实现为一种程序产品,该程序产品包括程序代码,当该程序产品可以在移动终端上运行时,该程序代码用于使人体属性识别设备执行上述人体属性识别方法的步骤。
较佳的,本发明实施例提供的程序产品可以采用一个或多个可读介质的任意组合,其中,可读介质可以是可读信号介质或者可读存储介质,而可读存储介质可以是但不限于是电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合,具体地,可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
较佳的,本发明实施例提供的程序产品可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,还可以在计算设备上运行。然而,本发明实施例提供的程序产品不限于此,在本发明实施例中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本发明操作的程序代码,所述程序设计语言包括面向对象的程序设计语言,诸如Java、C++等,还包括常规的过程式程序设计语言,诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络连接到用户计算设备,诸如通过局域网(LAN)或广域网(WAN)连接到用户计算设备;或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
应当注意,尽管在上文详细描述中提及了装置的若干单元或子单元,但是这种划分仅仅是示例性的并非强制性的。实际上,根据本发明的实施方式,上文描述的两个或更多单元的特征和功能可以在一个单元中具体化。反之,上文描述的一个单元的特征和功能可以进一步划分为由多个单元来具体化。
此外,尽管在附图中以特定顺序描述了本发明方法的操作,但是,这并非要求或者暗示必须按照该特定顺序来执行这些操作,或是必须执行全部所示的操作才能实现期望的结果。附加地或备选地,可以省略某些步骤,将多个步骤合并为一个步骤执行,和/或将一个步骤分解为多个步骤执行。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本发明的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
显然,本领域的技术人员可以对本发明实施例进行各种改动和变型而不脱离本发明实施例的精神和范围。这样,倘若本发明实施例的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
Claims (14)
1.一种人体属性识别方法,其特征在于,包括:
确定监控图像中的人体区域图像;
将所述人体区域图像输入多属性卷积神经网络模型,得到所述人体区域图像中的各个人体属性对应于预先定义的每一个属性值的概率;其中,所述多属性卷积神经网络模型是利用多属性卷积神经网络对预先获得的训练图像进行多属性识别训练得到的;
基于所述人体区域图像中的各个人体属性对应于预先定义的每一个属性值的概率,确定所述人体区域图像中的各个人体属性的属性值。
2.如权利要求1所述的人体属性识别方法,其特征在于,利用多属性卷积神经网络对预先获得的训练图像进行多属性识别训练得到所述多属性卷积神经网络模型,包括:
根据预先定义的各个人体属性的属性值,并依次通过所述多属性卷积神经网络的数据输入层、卷积计算层、激励层和全连接层,对预先获得的训练图像进行多属性识别训练,得到所述多属性卷积神经网络模型;或者,
根据预先定义的各个人体属性的属性值,并依次通过所述多属性卷积神经网络的数据输入层、卷积计算层、激励层和全局平均池化层,对预先获得的训练图像进行多属性识别训练,得到所述多属性卷积神经网络模型。
3.如权利要求2所述的人体属性识别方法,其特征在于,还包括:
确定所述多属性卷积神经网络模型输出的所述训练图像的各个人体属性的预测属性值与预先定义的各个人体属性的真实属性值之间的差异度;
根据所述差异度,调整所述多属性卷积神经网络模型对应的各层网络参数。
4.如权利要求3所述的人体属性识别方法,其特征在于,确定所述多属性卷积神经网络模型输出的所述训练图像的各个人体属性的预测属性值与预先定义的各个人体属性的真实属性值之间的差异度,包括:
利用交叉熵损失函数,确定各个人体属性的预测属性值与预先定义的各个人体属性的真实属性值之间的差异度。
5.如权利要求2-4任一项所述的人体属性识别方法,其特征在于,还包括:
当增加新人体属性和/或为原人体属性增加新属性值时,按照设定比例选取新训练图像和原训练图像为训练图像;
利用所述多属性卷积神经网络对所述训练图像进行多属性识别训练,得到增加有新人体属性和/或新属性值的多属性卷积神经网络模型。
6.如权利要求1所述的人体属性识别方法,其特征在于,基于所述人体区域图像中的各个人体属性对应于预先定义的每一个属性值的概率,确定所述人体区域图像中的各个人体属性的属性值,包括:
针对所述人体区域图像中的每一个人体属性,从所述人体属性对应于预先定义的每一个属性值的概率中,选取对应的概率最大的属性值作为所述人体属性的属性值。
7.一种人体属性识别装置,其特征在于,包括:
确定单元,用于确定监控图像中的人体区域图像;
获取单元,用于将所述人体区域图像输入多属性卷积神经网络模型,得到所述人体区域图像中的各个人体属性对应于预先定义的每一个属性值的概率;其中,所述多属性卷积神经网络模型是利用多属性卷积神经网络对预先获得的训练图像进行多属性识别训练得到的;
识别单元,用于基于所述人体区域图像中的各个人体属性对应于预先定义的每一个属性值的概率,确定所述人体区域图像中的各个人体属性的属性值。
8.如权利要求7所述的人体属性识别装置,其特征在于,还包括:
训练单元,用于根据预先定义的各个人体属性的属性值,并依次通过所述多属性卷积神经网络的数据输入层、卷积计算层、激励层和全连接层,对预先获得的训练图像进行多属性识别训练,得到所述多属性卷积神经网络模型;或者,根据预先定义的各个人体属性的属性值,并依次通过所述多属性卷积神经网络的数据输入层、卷积计算层、激励层和全局平均池化层,对预先获得的训练图像进行多属性识别训练,得到所述多属性卷积神经网络模型。
9.如权利要求8所述的人体属性识别装置,其特征在于,还包括:
调节单元,用于确定所述多属性卷积神经网络模型输出的所述训练图像的各个人体属性的预测属性值与预先定义的各个人体属性的真实属性值之间的差异度,并根据所述差异度,调整所述多属性卷积神经网络模型对应的各层网络参数。
10.如权利要求9所述的人体属性识别装置,其特征在于,在确定所述多属性卷积神经网络模型输出的所述训练图像的各个人体属性的预测属性值与预先定义的各个人体属性的真实属性值之间的差异度时,所述调节单元具体用于:
利用交叉熵损失函数,确定各个人体属性的预测属性值与预先定义的各个人体属性的真实属性值之间的差异度。
11.如权利要求8-10任一项所述的人体属性识别装置,其特征在于,所述训练单元还用于:
当增加新人体属性和/或为原人体属性增加新属性值时,按照设定比例选取新训练图像和原训练图像为训练图像;
利用所述多属性卷积神经网络对所述训练图像进行多属性识别训练,得到增加有新人体属性和/或新属性值的多属性卷积神经网络模型。
12.如权利要求7所述的人体属性识别装置,其特征在于,在基于所述人体区域图像中的各个人体属性对应于预先定义的每一个属性值的概率,确定所述人体区域图像中的各个人体属性的属性值时,所述识别单元具体用于:
针对所述人体区域图像中的每一个人体属性,从所述人体属性对应于预先定义的每一个属性值的概率中,选取对应的概率最大的属性值作为所述人体属性的属性值。
13.一种人体属性识别设备,其特征在于,包括存储器、处理器和存储在所述存储器上的计算机程序,所述处理器执行所述计算机程序时实现权利要求1-6任一项所述的人体属性识别方法的步骤。
14.一种非易失性计算机存储介质,其特征在于,所述非易失性计算机存储介质存储有可执行程序,所述可执行程序被处理器执行实现权利要求1-6任一项所述的人体属性识别方法的步骤。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810541546.6A CN108921022A (zh) | 2018-05-30 | 2018-05-30 | 一种人体属性识别方法、装置、设备及介质 |
PCT/CN2019/082977 WO2019228089A1 (zh) | 2018-05-30 | 2019-04-17 | 人体属性识别方法、装置、设备及介质 |
US16/938,858 US11275932B2 (en) | 2018-05-30 | 2020-07-24 | Human body attribute recognition method, apparatus, and device and medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810541546.6A CN108921022A (zh) | 2018-05-30 | 2018-05-30 | 一种人体属性识别方法、装置、设备及介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108921022A true CN108921022A (zh) | 2018-11-30 |
Family
ID=64417932
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810541546.6A Pending CN108921022A (zh) | 2018-05-30 | 2018-05-30 | 一种人体属性识别方法、装置、设备及介质 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11275932B2 (zh) |
CN (1) | CN108921022A (zh) |
WO (1) | WO2019228089A1 (zh) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109800678A (zh) * | 2018-12-29 | 2019-05-24 | 上海依图网络科技有限公司 | 一种视频中对象的属性确定方法及装置 |
CN110472611A (zh) * | 2019-08-21 | 2019-11-19 | 图谱未来(南京)人工智能研究院有限公司 | 人物属性识别的方法、装置、电子设备及可读存储介质 |
WO2019228089A1 (zh) * | 2018-05-30 | 2019-12-05 | 腾讯科技(深圳)有限公司 | 人体属性识别方法、装置、设备及介质 |
CN110647992A (zh) * | 2019-09-19 | 2020-01-03 | 腾讯云计算(北京)有限责任公司 | 卷积神经网络的训练方法、图像识别方法及其对应的装置 |
CN110674756A (zh) * | 2019-09-25 | 2020-01-10 | 普联技术有限公司 | 人体属性识别模型训练方法、人体属性识别方法及装置 |
CN111291604A (zh) * | 2018-12-07 | 2020-06-16 | 深圳光启空间技术有限公司 | 面部属性识别方法、装置、存储介质及处理器 |
CN111753596A (zh) * | 2019-03-29 | 2020-10-09 | 商汤集团有限公司 | 神经网络的训练方法及装置、电子设备和存储介质 |
CN111783619A (zh) * | 2020-06-29 | 2020-10-16 | 北京百度网讯科技有限公司 | 人体属性的识别方法、装置、设备及存储介质 |
CN112541374A (zh) * | 2019-09-20 | 2021-03-23 | 南京行者易智能交通科技有限公司 | 一种基于深度学习的乘客属性的获取方法、装置及模型训练方法 |
CN113196279A (zh) * | 2018-12-18 | 2021-07-30 | 华为技术有限公司 | 一种面部属性的识别方法及电子设备 |
WO2021174941A1 (zh) * | 2020-03-03 | 2021-09-10 | 平安科技(深圳)有限公司 | 人体属性识别方法、系统、计算机设备及存储介质 |
CN115019350A (zh) * | 2022-08-09 | 2022-09-06 | 中科视语(北京)科技有限公司 | 人体属性识别方法、装置及电子设备 |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11151412B2 (en) * | 2019-07-01 | 2021-10-19 | Everseen Limited | Systems and methods for determining actions performed by objects within images |
CN114529731B (zh) * | 2020-10-30 | 2024-07-12 | 北京眼神智能科技有限公司 | 人脸特征点定位及属性分析方法、装置、存储介质及设备 |
CN112633119A (zh) * | 2020-12-17 | 2021-04-09 | 北京赢识科技有限公司 | 一种人体属性识别方法、装置、电子设备及介质 |
CN112800978B (zh) * | 2021-01-29 | 2024-09-24 | 北京金山云网络技术有限公司 | 属性识别方法、部位属性提取网络的训练方法和装置 |
CN112906525B (zh) * | 2021-02-05 | 2024-10-18 | 广州市百果园信息技术有限公司 | 年龄识别方法、装置及电子设备 |
US20230057295A1 (en) * | 2021-08-23 | 2023-02-23 | Element8 Technology Investment Group Inc. | System and method for providing a multi-sided platform for broadband and content delivery networks |
CN115294611B (zh) * | 2022-09-29 | 2023-02-03 | 深圳爱莫科技有限公司 | 人体属性识别模型训练方法、识别方法、装置及设备 |
CN116030500B (zh) * | 2023-02-16 | 2023-07-18 | 深圳华付技术股份有限公司 | 一种人员着装规范识别方法及系统 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104992142A (zh) * | 2015-06-03 | 2015-10-21 | 江苏大学 | 一种基于深度学习和属性学习相结合的行人识别方法 |
CN105957086A (zh) * | 2016-05-09 | 2016-09-21 | 西北工业大学 | 一种基于优化神经网络模型的遥感图像变化检测方法 |
KR20170006356A (ko) * | 2015-07-08 | 2017-01-18 | 주식회사 케이티 | 이차원 영상 기반 고객 분석 방법 및 장치 |
CN107316001A (zh) * | 2017-05-31 | 2017-11-03 | 天津大学 | 一种自动驾驶场景中小且密集的交通标志检测方法 |
CN107330396A (zh) * | 2017-06-28 | 2017-11-07 | 华中科技大学 | 一种基于多属性和多策略融合学习的行人再识别方法 |
CN107516316A (zh) * | 2017-07-19 | 2017-12-26 | 郑州禅图智能科技有限公司 | 一种在fcn中引入聚焦机制对静态人体图像进行分割的方法 |
CN107678059A (zh) * | 2017-09-05 | 2018-02-09 | 中国石油大学(北京) | 一种储层含气识别的方法、装置及系统 |
CN108053061A (zh) * | 2017-12-08 | 2018-05-18 | 天津大学 | 一种基于改进卷积神经网络的太阳能辐照度预测方法 |
CN108052894A (zh) * | 2017-12-11 | 2018-05-18 | 北京飞搜科技有限公司 | 一种目标对象的多属性识别方法、设备、介质及神经网络 |
CN108073876A (zh) * | 2016-11-14 | 2018-05-25 | 北京三星通信技术研究有限公司 | 面部解析设备和面部解析方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8948500B2 (en) * | 2012-05-31 | 2015-02-03 | Seiko Epson Corporation | Method of automatically training a classifier hierarchy by dynamic grouping the training samples |
CN106250874B (zh) * | 2016-08-16 | 2019-04-30 | 东方网力科技股份有限公司 | 一种服饰及随身物品的识别方法和装置 |
CN110678878B (zh) * | 2017-03-20 | 2022-12-13 | 华为技术有限公司 | 一种表观特征的描述属性识别方法及装置 |
CN107247947B (zh) * | 2017-07-07 | 2021-02-09 | 智慧眼科技股份有限公司 | 人脸属性识别方法及装置 |
CN109598176A (zh) * | 2017-09-30 | 2019-04-09 | 佳能株式会社 | 识别装置和识别方法 |
CN108921022A (zh) * | 2018-05-30 | 2018-11-30 | 腾讯科技(深圳)有限公司 | 一种人体属性识别方法、装置、设备及介质 |
-
2018
- 2018-05-30 CN CN201810541546.6A patent/CN108921022A/zh active Pending
-
2019
- 2019-04-17 WO PCT/CN2019/082977 patent/WO2019228089A1/zh active Application Filing
-
2020
- 2020-07-24 US US16/938,858 patent/US11275932B2/en active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104992142A (zh) * | 2015-06-03 | 2015-10-21 | 江苏大学 | 一种基于深度学习和属性学习相结合的行人识别方法 |
KR20170006356A (ko) * | 2015-07-08 | 2017-01-18 | 주식회사 케이티 | 이차원 영상 기반 고객 분석 방법 및 장치 |
CN105957086A (zh) * | 2016-05-09 | 2016-09-21 | 西北工业大学 | 一种基于优化神经网络模型的遥感图像变化检测方法 |
CN108073876A (zh) * | 2016-11-14 | 2018-05-25 | 北京三星通信技术研究有限公司 | 面部解析设备和面部解析方法 |
CN107316001A (zh) * | 2017-05-31 | 2017-11-03 | 天津大学 | 一种自动驾驶场景中小且密集的交通标志检测方法 |
CN107330396A (zh) * | 2017-06-28 | 2017-11-07 | 华中科技大学 | 一种基于多属性和多策略融合学习的行人再识别方法 |
CN107516316A (zh) * | 2017-07-19 | 2017-12-26 | 郑州禅图智能科技有限公司 | 一种在fcn中引入聚焦机制对静态人体图像进行分割的方法 |
CN107678059A (zh) * | 2017-09-05 | 2018-02-09 | 中国石油大学(北京) | 一种储层含气识别的方法、装置及系统 |
CN108053061A (zh) * | 2017-12-08 | 2018-05-18 | 天津大学 | 一种基于改进卷积神经网络的太阳能辐照度预测方法 |
CN108052894A (zh) * | 2017-12-11 | 2018-05-18 | 北京飞搜科技有限公司 | 一种目标对象的多属性识别方法、设备、介质及神经网络 |
Non-Patent Citations (8)
Title |
---|
ZHONG LI等: "Deep Pedestrian Attribute Recognition based on LSTM", 《2017 IEEE INTERNATIONAL CONFERENCE ON IMAGE PROCESSING》 * |
桑农等: "复杂场景下基于R-FCN的手势识别", 《华中科技大学学报(自然科学版)》 * |
汪懋华: "《汪懋华文集》", 30 November 2012, 北京:中国农业大学出版社 * |
胡成等: "基于卷积神经网络的监控场景下行人属性识别", 《现代计算机》 * |
苏欣等: "《Android手机应用网络流量分析与恶意行为检测研究》", 31 October 2016 * |
董海鹰: "《智能控制理论及应用》", 30 September 2016, 北京:中国铁道出版社 * |
郑宏达等: "《人工智能视频分析:智能终端的崛起》", 31 August 2017 * |
陈敏: "《认知计算导论》", 30 April 2017 * |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11275932B2 (en) | 2018-05-30 | 2022-03-15 | Tencent Technology (Shenzhen) Company Limited | Human body attribute recognition method, apparatus, and device and medium |
WO2019228089A1 (zh) * | 2018-05-30 | 2019-12-05 | 腾讯科技(深圳)有限公司 | 人体属性识别方法、装置、设备及介质 |
CN111291604A (zh) * | 2018-12-07 | 2020-06-16 | 深圳光启空间技术有限公司 | 面部属性识别方法、装置、存储介质及处理器 |
CN113196279A (zh) * | 2018-12-18 | 2021-07-30 | 华为技术有限公司 | 一种面部属性的识别方法及电子设备 |
CN113196279B (zh) * | 2018-12-18 | 2024-02-09 | 华为技术有限公司 | 一种面部属性的识别方法及电子设备 |
CN109800678A (zh) * | 2018-12-29 | 2019-05-24 | 上海依图网络科技有限公司 | 一种视频中对象的属性确定方法及装置 |
CN111753596A (zh) * | 2019-03-29 | 2020-10-09 | 商汤集团有限公司 | 神经网络的训练方法及装置、电子设备和存储介质 |
CN110472611A (zh) * | 2019-08-21 | 2019-11-19 | 图谱未来(南京)人工智能研究院有限公司 | 人物属性识别的方法、装置、电子设备及可读存储介质 |
CN110647992A (zh) * | 2019-09-19 | 2020-01-03 | 腾讯云计算(北京)有限责任公司 | 卷积神经网络的训练方法、图像识别方法及其对应的装置 |
CN112541374B (zh) * | 2019-09-20 | 2024-04-30 | 南京行者易智能交通科技有限公司 | 一种基于深度学习的乘客属性的获取方法、装置及模型训练方法 |
CN112541374A (zh) * | 2019-09-20 | 2021-03-23 | 南京行者易智能交通科技有限公司 | 一种基于深度学习的乘客属性的获取方法、装置及模型训练方法 |
CN110674756A (zh) * | 2019-09-25 | 2020-01-10 | 普联技术有限公司 | 人体属性识别模型训练方法、人体属性识别方法及装置 |
CN110674756B (zh) * | 2019-09-25 | 2022-07-05 | 普联技术有限公司 | 人体属性识别模型训练方法、人体属性识别方法及装置 |
WO2021174941A1 (zh) * | 2020-03-03 | 2021-09-10 | 平安科技(深圳)有限公司 | 人体属性识别方法、系统、计算机设备及存储介质 |
CN111783619B (zh) * | 2020-06-29 | 2023-08-11 | 北京百度网讯科技有限公司 | 人体属性的识别方法、装置、设备及存储介质 |
CN111783619A (zh) * | 2020-06-29 | 2020-10-16 | 北京百度网讯科技有限公司 | 人体属性的识别方法、装置、设备及存储介质 |
CN115019350A (zh) * | 2022-08-09 | 2022-09-06 | 中科视语(北京)科技有限公司 | 人体属性识别方法、装置及电子设备 |
CN115019350B (zh) * | 2022-08-09 | 2022-12-06 | 中科视语(北京)科技有限公司 | 人体属性识别方法、装置及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
US11275932B2 (en) | 2022-03-15 |
US20200356767A1 (en) | 2020-11-12 |
WO2019228089A1 (zh) | 2019-12-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108921022A (zh) | 一种人体属性识别方法、装置、设备及介质 | |
CN110728209B (zh) | 一种姿态识别方法、装置、电子设备及存储介质 | |
Liu et al. | Exploiting color volume and color difference for salient region detection | |
US11487995B2 (en) | Method and apparatus for determining image quality | |
US10713532B2 (en) | Image recognition method and apparatus | |
US11995155B2 (en) | Adversarial image generation method, computer device, and computer-readable storage medium | |
CN109076198B (zh) | 基于视频的对象跟踪遮挡检测系统、方法和设备 | |
JP6994588B2 (ja) | 顔特徴抽出モデル訓練方法、顔特徴抽出方法、装置、機器および記憶媒体 | |
CN110991380B (zh) | 人体属性识别方法、装置、电子设备以及存储介质 | |
US20210258506A1 (en) | Image Processing Method and Apparatus | |
CN111754396B (zh) | 脸部图像处理方法、装置、计算机设备和存储介质 | |
CN107679466B (zh) | 信息输出方法和装置 | |
CN111242097A (zh) | 一种人脸识别方法、装置、计算机可读介质及电子设备 | |
WO2021174941A1 (zh) | 人体属性识别方法、系统、计算机设备及存储介质 | |
CN113449704B (zh) | 人脸识别模型训练方法、装置、电子设备及存储介质 | |
CN104063686A (zh) | 作物叶部病害图像交互式诊断系统与方法 | |
WO2021184754A1 (zh) | 视频对比方法、装置、计算机设备和存储介质 | |
CN110147699A (zh) | 一种图像识别方法、装置以及相关设备 | |
CN108133197B (zh) | 用于生成信息的方法和装置 | |
CN112784760B (zh) | 人体行为识别方法、装置、设备以及存储介质 | |
CN113326773A (zh) | 识别模型训练方法、识别方法、装置、设备及存储介质 | |
CN110795975A (zh) | 人脸误检优化方法及装置 | |
CN111931707A (zh) | 基于对抗补丁的人脸图像预测方法、装置、设备和介质 | |
CN116797814A (zh) | 智慧工地安全管理系统 | |
CN113963311B (zh) | 一种安全生产风险视频监控方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |