CN106529442A - 一种行人识别方法和装置 - Google Patents
一种行人识别方法和装置 Download PDFInfo
- Publication number
- CN106529442A CN106529442A CN201610949687.2A CN201610949687A CN106529442A CN 106529442 A CN106529442 A CN 106529442A CN 201610949687 A CN201610949687 A CN 201610949687A CN 106529442 A CN106529442 A CN 106529442A
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- image
- build
- convolutional neural
- neural networks
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种行人识别方法和装置,其中该方法包括:根据图像中的行人位置,标定行人区域,分离单独的行人图像;根据行人区域和单独的行人图像,标定行人数据集,将行人图像对应于行人体型;根据行人图像,基于卷积神经网络分析获取行人的属性特征。本发明通过行人图像的体型判断,利用基于深度学习的多任务卷积神经网络,在离线训练过程中针对不同性别、不同的行人视角训练一个统一的体型判断模型,有效的解决行人视角的问题,提高了算法准确度。
Description
技术领域
本发明涉及图像处理技术领域,更具体地,涉及一种行人识别方法和装置。
背景技术
近年来,基于人的图像识别分析技术取得了广泛的应用,例如年龄识别、公安安防和门禁系统等。图像中的行人体型判断,是对行人进行语义描述的一个重要属性,即检测一张行人图片或视频中行人的身高、胖瘦等体型特征。
体型的测量在日常生活中随处可见。传统的体型判断方法,大多需要接触式的通过尺度工具的直接测量,或者间接地根据参照物测量。这些判断方法虽然准确,但都需要人工的持续参与。当人数多时,如果逐一测量则速度相对较慢。当在人流量较大的场合,既需要估算体型,又需要达到一定的精度,并且对速度有一定要求时,传统的测量方法则不能满足要求。
目前基于摄像头行人图像用计算机判断行人体型的技术,正在逐步兴起,它通过非接触式的视觉信息来判断体型,但是面临着很多的挑战。其中之一就是行人视角的问题,不同视角下行人的姿态体型有很大的不同。如何训练出不同视角下的鲁棒的体型判断模型是一个相当有难度的问题。
基于摄像头行人图像判断行人体型的算法,通常首先使用行人检测模块检测出摄像头图像中的行人位置,分离出单独的行人图像。接着,提取行人图像的视觉特征,通常是行人区域的面积和宽高比。最后,通过这些特征拟合得到行人的体型。这些算法通常无法解决行人视角的问题,不同视角下行人的姿态有很大的不同,算法拟合得到的结果差距很大。
发明内容
本发明提供一种克服上述问题或者至少部分地解决上述问题的行人识别方法和装置,相比现有技术,不需要人主动配合,具有复杂度低、鲁棒性强等优点。
根据本发明的一个方面,提供一种行人识别方法,该方法包括:
步骤1,根据图像中的行人位置,标明行人区域,分离单独的行人图像;
步骤2,根据行人区域和单独的行人图像,标定行人数据集,将行人图像对应于行人体型;
步骤3,根据行人图像,基于卷积神经网络分析获取行人的属性特征。
本发明提出的行人识别方法通过行人图像的体型判断,利用基于深度学习的多任务卷积神经网络,在离线训练过程中针对不同性别、不同的行人视角训练一个统一的体型判断模型,有效的解决行人视角的问题,大大提高了算法准确度。
根据本发明的另一个方面,提供一种行人识别装置,该装置包括行人检测模块、样本标定模块、离线训练模块和在线体型判断模块。
所述行人检测模块,用于根据图像中的行人位置,标明行人区域,分离单独的行人图像;
所述样本标定模块,用于根据行人区域和单独的行人图像,标定行人数据集,将行人图像对应于行人体型,标定为训练样本;
所述离线训练模块,用于根据收集得到的训练样本集,训练出基于深度学习的卷积神经网络;
所述在线体型判断模块,用于在线检测行人图像,并将检测数据输入卷积神经网络,判断行人体型的估计值。
其中,所述行人检测模块根据摄像头采集的视频序列,分离为单独图像,获取行人数据集;对样本集进行预处理并且归一化为统一尺度,生成数据文件。
其中,所述样本标定模块,将行人图像标定行人身份ID,设定数据属性,其中,所述数据属性包括视角、性别或者体型,其中,行人的视角划分为八个方向,分别为正前、左前、右前、左、右、左后、右后、正后,分别给予标号1~8;将行人性别划分为男性和女性两类,给予标号1,2;将行人体型分为偏瘦、健硕、适中、超重、肥胖五类,分别给予标号1~5。
其中,所述离线训练模块,构建具有五层卷积操作层、五层池化操作层、五层dropout层、两层全连接层、三层softmax分类器和三层逻辑回归对象层的卷积神经网络,其中三个softmax分类器分别对应三种行人属性:视角、性别、体型;各个神经元的激活函数采用ReLu(Rectified Linear Units)激活函数f(x)=max(0,x),该激活函数具有单侧抑制、相对宽阔的兴奋边界、稀疏激活性等特性,由于分段线性可以避免梯度消失问题;每一次迭代取一个数据batch,batch大小为64,即以64个样本为单位利用误差反向传播算法对卷积神经网络进行训练,基于权重矩阵计算各层误差及梯度方向,根据梯度下降法更新权值矩阵,循环执行,直到网络达到收敛。
其中,所述在线体型判断模块,用于对在线获得的监控图像进行行人检测,得到行人图像,再将行人图像输入卷积神经网络,神经网络最后一层全连接层被分为3个分支,分别使用softmax回归模型分类器对视角、性别、体型进行分类;根据三个softmax分类输出层结果来识别出行人视角、性别、体型信息。
本发明提出的行人识别装置对硬件要求低,算法清晰,将行人视角划分为八个方向可以更好的适应不同视角下的行人姿态,同时引入深度学习策略,从而使最终算法更好的适应数据和环境的变化。
附图说明
图1为本发明行人识别方法的流程图。
具体实施方式
下面结合附图和实施例,对本发明的具体实施方式作进一步详细描述。以下实施例用于说明本发明,但不用来限制本发明的范围。
在根据本申请的一个实施例中,参考图1,提供一种行人识别方法,该方法包括:步骤1,根据图像中的行人位置,标定行人区域,分离单独的行人图像;步骤2,根据行人区域和单独的行人图像,标定行人数据集,将行人图像对应于行人体型;步骤3,根据行人图像,基于卷积神经网络分析获取行人的属性特征。
其中,步骤1中,进一步包括:步骤11,根据摄像头采集的视频序列,分离为单独图像,获取行人数据集;步骤12,对样本集进行预处理并且归一化为统一尺度,生成数据文件。
其中,步骤2中:将行人图像标定行人身份ID,设定数据属性其中,所述数据属性包括视角、性别或者体型,其中,行人的视角划分为八个方向,分别为正前、左前、右前、左、右、左后、右后、正后,分别给予标号1~8;将行人性别划分为男性和女性两类,给予标号1,2;将行人体型分为偏瘦、健硕、适中、超重、肥胖五类,分别给予标号1~5。
其中,步骤3中,进一步包括:步骤31,根据收集得到的训练样本集,训练出基于深度学习的卷积神经网络;步骤32,检测行人图像,并将检测数据输入卷积神经网络,判断行人体型的估计值。
其中,步骤11中,收集行业内公认数据集并且增加监控视频中的行人检测数据集,采用行人检测方法检测图像中的行人区域。
其中,步骤11进一步包括:步骤111,从摄像头采集拍摄到的视频序列;步骤112,将视频序列按照每10秒输出一张图像;步骤113,使用行人检测方法检测图像中的行人区域。
其中,步骤12中,所述统一的尺度可以是128*64,该数据文件用于卷积神经网络的训练。
其中,步骤31中,设计卷积神经网络的结构,并进行训练,获取网络收敛时的权重连接矩阵W,用于以后的分类过程。
其中,步骤31还进一步包括:步骤311,设计一个具有五层卷积操作层、五层池化操作层、五层dropout层、两层全连接层、三层softmax分类器和三层逻辑回归对象层的卷积神经网络,三个softmax分类器分别对应三种行人属性:视角、性别、体型;步骤312,各个神经元的激活函数采用ReLu(Rectified Linear Units)激活函数f(x)=max(0,x),该激活函数具有单侧抑制、相对宽阔的兴奋边界、稀疏激活性等特性,由于分段线性可以避免梯度消失问题;步骤313,每一次迭代取一个数据batch,batch大小为64,即以64个样本为单位利用误差反向传播算法对卷积神经网络进行训练,基于权重矩阵计算各层误差及梯度方向,根据梯度下降法更新权值矩阵,循环执行,直到网络达到收敛。
其中,步骤32中,对在线获得的监控图像进行行人检测,得到行人图像,再将行人图像输入卷积神经网络,神经网络最后一层全连接层被分为3个分支,分别使用softmax回归模型分类器对视角、性别、体型进行分类;根据三个softmax分类输出层结果来识别出行人视角、性别、体型信息。
其中,步骤32中,每个所述softmax回归模型分类器均采用函数
计算当前图像属于每一个类别的概率,选取概率最高的类别作为识别结果,即可得到待识别行人的视角、性别、体型特征。
根据本发明的另一个实施例,提供一种行人识别装置,该装置包括行人检测模块、样本标定模块、离线训练模块和在线体型判断模块。所述行人检测模块,用于根据图像中的行人位置,标明行人区域,分离单独的行人图像;所述样本标定模块,用于根据行人区域和单独的行人图像,标定行人数据集,将行人图像对应于行人体型,标定为训练样本;所述离线训练模块,用于根据收集得到的训练样本集,训练出基于深度学习的卷积神经网络;所述在线体型判断模块,用于在线检测行人图像,并将检测数据输入卷积神经网络,判断行人体型的估计值。
其中,所述行人检测模块根据摄像头采集的视频序列,分离为单独图像,获取行人数据集;对样本集进行预处理并且归一化为统一尺度,生成数据文件。
所述样本标定模块,将行人图像标定行人身份ID,设定数据属性,其中,所述数据属性包括视角、性别或者体型,其中,行人的视角划分为八个方向,分别为正前、左前、右前、左、右、左后、右后、正后,分别给予标号1~8;将行人性别划分为男性和女性两类,给予标号1,2;将行人体型分为偏瘦、健硕、适中、超重、肥胖五类,分别给予标号1~5。
所述离线训练模块,设计一个具有五层卷积操作层、五层池化操作层、五层dropout层、两层全连接层、三层softmax分类器和三层逻辑回归对象层的卷积神经网络,三个softmax分类器分别对应三种行人属性:视角、性别、体型;各个神经元的激活函数采用ReLu(Rectified Linear Units)激活函数f(x)=max(0,x),该激活函数具有单侧抑制、相对宽阔的兴奋边界、稀疏激活性等特性,由于分段线性可以避免梯度消失问题;每一次迭代取一个数据batch,batch大小为64,即以64个样本为单位利用误差反向传播算法对卷积神经网络进行训练,基于权重矩阵计算各层误差及梯度方向,根据梯度下降法更新权值矩阵,循环执行,直到网络达到收敛。
所述在线体型判断模块,用于对在线获得的监控图像进行行人检测,得到行人图像,再将行人图像输入卷积神经网络,神经网络最后一层全连接层被分为3个分支,分别使用softmax回归模型分类器对视角、性别、体型进行分类;根据三个softmax分类输出层结果来识别出行人视角、性别、体型信息。
最后,本申请的方法仅为较佳的实施方案,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种行人识别方法,其特征在于:包括以下步骤:
S1:根据图像中的行人位置,标明行人区域,分离单独的行人图像;
S2:根据行人区域和单独的行人图像,标定行人数据集,将行人图像对应于行人体型;
S3:根据行人图像,基于卷积神经网络分析获取行人的属性特征。
2.根据权利要求1所述的一种行人识别方法,其特征在于,所述步骤S1包括:
S11:根据摄像头采集的视频序列,分离为单独图像,获取行人数据集;
S12:对样本集进行预处理并且归一化为统一尺度,生成数据文件。
3.根据权利要求2所述的一种行人识别方法,其特征在于,所述步骤S11中,收集行业内公认数据集并且增加监控视频中的行人检测数据集,采用行人检测方法检测图像中的行人区域。
4.根据权利要求2所述的一种行人识别方法,其特征在于,所述步骤S12中,所述统一的尺度是128*64,该数据文件用于卷积神经网络的训练。
5.根据权利要求1所述的一种行人识别方法,其特征在于,所述步骤S2中,将行人图像标定行人身份ID,设定数据属性,其中,所述数据属性包括视角、性别或者体型。
6.根据权利要求1所述的一种行人识别方法,其特征在于,所述步骤S3包括:
S31,根据收集得到的训练样本集,训练出基于深度学习的卷积神经网络;
S32,检测行人图像,并将检测数据输入卷积神经网络,判断行人体型的估计值。
7.根据权利要求6所述的一种行人识别方法,其特征在于,所述步骤S31包括:
S311,构建具有五层卷积操作层、五层池化操作层、五层dropout层、两层全连接层、三层softmax分类器和三层逻辑回归对象层的卷积神经网络,其中三个softmax分类器分别对应三种行人属性:视角、性别、体型;
S312,各个神经元的激活函数采用ReLu激活函数f(x)=max(0,x);
S313,每一次训练迭代取一个数据batch,以64个样本为单位利用误差反向传播算法对卷积神经网络进行训练,基于权重矩阵计算各层误差及梯度方向,根据梯度下降法更新权值矩阵,循环执行,直到网络达到收敛。
8.根据权利要求7所述的一种行人识别方法,其特征在于,所述步骤S32进一步包括:
对在线获得的监控图像进行行人检测,得到行人图像;
将行人图像输入卷积神经网络,神经网络最后一层全连接层被分为3个分支,分别使用softmax回归模型分类器对视角、性别、体型进行分类;根据三个softmax分类输出层结果来识别出行人视角、性别、体型信息。
9.一种行人识别装置,其特征在于:包括行人检测模块、样本标定模块、离线训练模块和在线体型判断模块,其中,
所述行人检测模块,用于根据图像中的行人位置,标明行人区域,分离单独的行人图像;
所述样本标定模块,用于根据行人区域和单独的行人图像,标定行人数据集,将行人图像对应于行人体型,标定为训练样本;
所述离线训练模块,用于根据收集得到的训练样本集,训练出基于深度学习的卷积神经网络;
所述在线体型判断模块,用于在线检测行人图像,并将检测数据输入卷积神经网络,判断行人体型的估计值。
10.根据权利要求9所述的一种行人识别装置,其特征在于,所述行人检测模块根据摄像头采集的视频序列,分离为单独图像,获取行人数据集;对样本集进行预处理并且归一化为统一尺度,生成数据文件;
所述样本标定模块,将行人图像标定行人身份ID,设定数据属性,其中,所述数据属性包括视角、性别或者体型;
所述离线训练模块,设计一个具有五层卷积操作层、五层池化操作层、五层dropout层、两层全连接层、三层softmax分类器和三层逻辑回归对象层的卷积神经网络,三个softmax分类器分别对应三种行人属性:视角、性别、体型;以64个样本为单位利用误差反向传播算法对卷积神经网络进行训练,基于权重矩阵计算各层误差及梯度方向,根据梯度下降法更新权值矩阵,循环执行,直到网络达到收敛;
所述在线体型判断模块,用于对在线获得的监控图像进行行人检测,得到行人图像,将行人图像输入卷积神经网络,神经网络最后一层全连接层被分为3个分支,分别使用softmax回归模型分类器对视角、性别、体型进行分类;根据三个softmax分类输出层结果来识别出行人视角、性别、体型信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610949687.2A CN106529442B (zh) | 2016-10-26 | 2016-10-26 | 一种行人识别方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610949687.2A CN106529442B (zh) | 2016-10-26 | 2016-10-26 | 一种行人识别方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106529442A true CN106529442A (zh) | 2017-03-22 |
CN106529442B CN106529442B (zh) | 2019-10-18 |
Family
ID=58325163
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610949687.2A Active CN106529442B (zh) | 2016-10-26 | 2016-10-26 | 一种行人识别方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106529442B (zh) |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107145900A (zh) * | 2017-04-24 | 2017-09-08 | 清华大学 | 基于一致性约束特征学习的行人再识别方法 |
CN107220611A (zh) * | 2017-05-23 | 2017-09-29 | 上海交通大学 | 一种基于深度神经网络的空时特征提取方法 |
CN107301380A (zh) * | 2017-06-01 | 2017-10-27 | 华南理工大学 | 一种用于视频监控场景中行人重识别的方法 |
CN107633262A (zh) * | 2017-08-30 | 2018-01-26 | 贵州省原态上品农业科技有限责任公司 | 一种肉猪体型识别分类系统 |
CN107729805A (zh) * | 2017-09-01 | 2018-02-23 | 北京大学 | 用于行人再识别的神经网络和基于深度学习的行人再识别算法 |
CN107808139A (zh) * | 2017-11-01 | 2018-03-16 | 电子科技大学 | 一种基于深度学习的实时监控威胁分析方法及系统 |
CN108222749A (zh) * | 2017-12-29 | 2018-06-29 | 安徽慧视金瞳科技有限公司 | 一种基于图像分析的智能自动门控制方法 |
CN108510000A (zh) * | 2018-03-30 | 2018-09-07 | 北京工商大学 | 复杂场景下行人细粒度属性的检测与识别方法 |
CN108596013A (zh) * | 2018-01-29 | 2018-09-28 | 清华大学 | 基于多粒度深度特征学习的行人检测方法及装置 |
CN108830236A (zh) * | 2018-06-21 | 2018-11-16 | 电子科技大学 | 一种基于深度特征的行人重识别方法 |
CN108846420A (zh) * | 2018-05-28 | 2018-11-20 | 北京陌上花科技有限公司 | 网络结构以及客户端 |
CN108960124A (zh) * | 2018-06-28 | 2018-12-07 | 北京陌上花科技有限公司 | 用于行人再识别的图像处理方法及装置 |
CN109359515A (zh) * | 2018-08-30 | 2019-02-19 | 东软集团股份有限公司 | 一种用于对目标对象的属性特征进行识别的方法及装置 |
CN109359511A (zh) * | 2018-08-28 | 2019-02-19 | 中国农业大学 | 一种监测易发芽作物发芽状态的方法及装置 |
CN109829415A (zh) * | 2019-01-25 | 2019-05-31 | 平安科技(深圳)有限公司 | 基于深度残差网络的性别识别方法、装置、介质和设备 |
CN109829356A (zh) * | 2018-12-05 | 2019-05-31 | 科大讯飞股份有限公司 | 神经网络的训练方法及基于神经网络的行人属性识别方法 |
CN109886095A (zh) * | 2019-01-08 | 2019-06-14 | 浙江新再灵科技股份有限公司 | 一种基于视觉的轻型卷积神经网络的乘客属性识别系统及方法 |
CN110222634A (zh) * | 2019-06-04 | 2019-09-10 | 河海大学常州校区 | 一种基于卷积神经网络的人体姿态识别方法 |
CN110287856A (zh) * | 2019-06-21 | 2019-09-27 | 上海闪马智能科技有限公司 | 一种执勤人员行为分析系统、方法及装置 |
CN111507272A (zh) * | 2020-04-20 | 2020-08-07 | 中国科学院自动化研究所 | 监控场景中行人属性识别方法及系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140177949A1 (en) * | 2012-12-26 | 2014-06-26 | Industrial Technology Research Institute | Unsupervised adaptation method and automatic image classification method applying the same |
CN104166861A (zh) * | 2014-08-11 | 2014-11-26 | 叶茂 | 一种行人检测方法 |
-
2016
- 2016-10-26 CN CN201610949687.2A patent/CN106529442B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140177949A1 (en) * | 2012-12-26 | 2014-06-26 | Industrial Technology Research Institute | Unsupervised adaptation method and automatic image classification method applying the same |
CN104166861A (zh) * | 2014-08-11 | 2014-11-26 | 叶茂 | 一种行人检测方法 |
Cited By (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107145900B (zh) * | 2017-04-24 | 2019-07-26 | 清华大学 | 基于一致性约束特征学习的行人再识别方法 |
CN107145900A (zh) * | 2017-04-24 | 2017-09-08 | 清华大学 | 基于一致性约束特征学习的行人再识别方法 |
CN107220611A (zh) * | 2017-05-23 | 2017-09-29 | 上海交通大学 | 一种基于深度神经网络的空时特征提取方法 |
CN107220611B (zh) * | 2017-05-23 | 2020-02-11 | 上海交通大学 | 一种基于深度神经网络的空时特征提取方法 |
CN107301380A (zh) * | 2017-06-01 | 2017-10-27 | 华南理工大学 | 一种用于视频监控场景中行人重识别的方法 |
CN107633262A (zh) * | 2017-08-30 | 2018-01-26 | 贵州省原态上品农业科技有限责任公司 | 一种肉猪体型识别分类系统 |
CN107729805A (zh) * | 2017-09-01 | 2018-02-23 | 北京大学 | 用于行人再识别的神经网络和基于深度学习的行人再识别算法 |
CN107729805B (zh) * | 2017-09-01 | 2019-09-13 | 北京大学 | 用于行人再识别的神经网络和基于深度学习的行人再识别算法 |
CN107808139B (zh) * | 2017-11-01 | 2021-08-06 | 电子科技大学 | 一种基于深度学习的实时监控威胁分析方法及系统 |
CN107808139A (zh) * | 2017-11-01 | 2018-03-16 | 电子科技大学 | 一种基于深度学习的实时监控威胁分析方法及系统 |
CN108222749A (zh) * | 2017-12-29 | 2018-06-29 | 安徽慧视金瞳科技有限公司 | 一种基于图像分析的智能自动门控制方法 |
CN108596013A (zh) * | 2018-01-29 | 2018-09-28 | 清华大学 | 基于多粒度深度特征学习的行人检测方法及装置 |
CN108596013B (zh) * | 2018-01-29 | 2020-08-28 | 清华大学 | 基于多粒度深度特征学习的行人检测方法及装置 |
CN108510000A (zh) * | 2018-03-30 | 2018-09-07 | 北京工商大学 | 复杂场景下行人细粒度属性的检测与识别方法 |
CN108510000B (zh) * | 2018-03-30 | 2021-06-15 | 北京工商大学 | 复杂场景下行人细粒度属性的检测与识别方法 |
CN108846420A (zh) * | 2018-05-28 | 2018-11-20 | 北京陌上花科技有限公司 | 网络结构以及客户端 |
CN108830236A (zh) * | 2018-06-21 | 2018-11-16 | 电子科技大学 | 一种基于深度特征的行人重识别方法 |
CN108960124A (zh) * | 2018-06-28 | 2018-12-07 | 北京陌上花科技有限公司 | 用于行人再识别的图像处理方法及装置 |
CN109359511A (zh) * | 2018-08-28 | 2019-02-19 | 中国农业大学 | 一种监测易发芽作物发芽状态的方法及装置 |
CN109359511B (zh) * | 2018-08-28 | 2020-09-15 | 中国农业大学 | 一种监测易发芽作物发芽状态的方法及装置 |
CN109359515A (zh) * | 2018-08-30 | 2019-02-19 | 东软集团股份有限公司 | 一种用于对目标对象的属性特征进行识别的方法及装置 |
CN109829356A (zh) * | 2018-12-05 | 2019-05-31 | 科大讯飞股份有限公司 | 神经网络的训练方法及基于神经网络的行人属性识别方法 |
CN109829356B (zh) * | 2018-12-05 | 2021-04-06 | 科大讯飞股份有限公司 | 神经网络的训练方法及基于神经网络的行人属性识别方法 |
CN109886095A (zh) * | 2019-01-08 | 2019-06-14 | 浙江新再灵科技股份有限公司 | 一种基于视觉的轻型卷积神经网络的乘客属性识别系统及方法 |
WO2020151300A1 (zh) * | 2019-01-25 | 2020-07-30 | 平安科技(深圳)有限公司 | 基于深度残差网络的性别识别方法、装置、介质和设备 |
CN109829415A (zh) * | 2019-01-25 | 2019-05-31 | 平安科技(深圳)有限公司 | 基于深度残差网络的性别识别方法、装置、介质和设备 |
CN110222634A (zh) * | 2019-06-04 | 2019-09-10 | 河海大学常州校区 | 一种基于卷积神经网络的人体姿态识别方法 |
CN110222634B (zh) * | 2019-06-04 | 2022-11-01 | 河海大学常州校区 | 一种基于卷积神经网络的人体姿态识别方法 |
CN110287856A (zh) * | 2019-06-21 | 2019-09-27 | 上海闪马智能科技有限公司 | 一种执勤人员行为分析系统、方法及装置 |
CN111507272A (zh) * | 2020-04-20 | 2020-08-07 | 中国科学院自动化研究所 | 监控场景中行人属性识别方法及系统 |
CN111507272B (zh) * | 2020-04-20 | 2023-09-26 | 中国科学院自动化研究所 | 监控场景中行人属性识别方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN106529442B (zh) | 2019-10-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106529442A (zh) | 一种行人识别方法和装置 | |
Zhang et al. | Driver fatigue detection based on eye state recognition | |
CN103268495B (zh) | 计算机系统中基于先验知识聚类的人体行为建模识别方法 | |
KR101977174B1 (ko) | 영상 분석 방법, 장치 및 컴퓨터 프로그램 | |
CN109543526B (zh) | 基于深度差异性特征的真假面瘫识别系统 | |
CN109409297B (zh) | 一种基于双通道卷积神经网络的身份识别方法 | |
Mahapatra et al. | Retinal image quality classification using saliency maps and CNNs | |
WO2018107760A1 (zh) | 一种用于行人检测的协同式深度网络模型方法 | |
CN106295124B (zh) | 多种图像检测技术综合分析基因子图相似概率量的方法 | |
CN110503630B (zh) | 一种基于三维深度学习模型的脑出血分类、定位与预测方法 | |
CN109101938B (zh) | 一种基于卷积神经网络的多标签年龄估计方法 | |
WO2016110005A1 (zh) | 基于灰度和深度信息的多层融合的多模态人脸识别装置及方法 | |
CN106408030B (zh) | 基于中层语义属性和卷积神经网络的sar图像分类方法 | |
CN108806792A (zh) | 深度学习面诊系统 | |
CN103971106B (zh) | 多视角人脸图像性别识别方法及装置 | |
CN106682569A (zh) | 一种基于卷积神经网络的快速交通标识牌识别方法 | |
CN105160400A (zh) | 基于l21范数的提升卷积神经网络泛化能力的方法 | |
CN104408469A (zh) | 基于图像深度学习的烟火识别方法及系统 | |
CN110532850B (zh) | 一种基于视频关节点和混合分类器的跌倒检测方法 | |
CN106778687A (zh) | 基于局部评估和全局优化的注视点检测方法 | |
CN110852358A (zh) | 一种基于深度学习的车辆类型判别方法 | |
CN106127733A (zh) | 人体目标识别的方法和装置 | |
CN114463843A (zh) | 一种基于深度学习的多特征融合鱼类异常行为检测方法 | |
Simanjuntak et al. | Cataract Classification Based on Fundus Images Using Convolutional Neural Network | |
Alagirisamy | Micro statistical descriptors for glaucoma diagnosis using neural networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |