CN110569779B - 基于行人局部和整体属性联合学习的行人属性识别方法 - Google Patents
基于行人局部和整体属性联合学习的行人属性识别方法 Download PDFInfo
- Publication number
- CN110569779B CN110569779B CN201910820960.5A CN201910820960A CN110569779B CN 110569779 B CN110569779 B CN 110569779B CN 201910820960 A CN201910820960 A CN 201910820960A CN 110569779 B CN110569779 B CN 110569779B
- Authority
- CN
- China
- Prior art keywords
- attribute
- pedestrian
- picture
- learning
- attributes
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/254—Fusion techniques of classification results, e.g. of results related to same input data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/259—Fusion by voting
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种基于行人局部和整体属性联合学习的行人属性识别方法,通过设计基于行人局部和整体属性联合学习的卷积神经网络结构,融合行人部位属性和全身属性进行具有关联性多任务学习,联合学习行人局部和整体属性的判别性特征表示,得到更具判别性的行人属性特征。本发明可以有效融合行人部位属性和全身属性进行具有关联性多任务学习,提高属性特征的判别性能力,实现对复杂场景中行人部位属性的更精准的识别,从而提升行人属性的识别性能。
Description
技术领域
本发明涉及计算机视觉与模式识别技术领域,尤其是一种行人属性识别方法。
背景技术
近些年来,随着社会对暴恐事件防范、刑事犯罪侦察等安全防范的日益重视,摄像机网络被广泛应用于地铁、机场、校园、超市等公共场所中,利用智能监控技术可以从多摄像机监控网络对感兴趣目标进行大范围、长时间、高精度的检索、定位等分析。对于大部分监控场景来说,行人是监控视频中最为常见也最为关注的目标。行人属性识别是分析监控视频中行人的属性特征,如性别、年龄、头发长短、衣服类型和颜色等,可以有效提高视频监控中行人检索和行人重识别等技术的准确率,因此行人属性识别技术有着广泛的应用前景。
监控视频中的行人图像往往存在遮挡、姿态变化、光照变化、低分辨率等问题,使行人识别问题成为智能视频监控领域最具挑战性的问题之一。为了解决以上问题,传统的行人属性识别方法采用人工设计的特征训练特征匹配模板,然而该方法不仅成本高,而且容易受到光照和环境的影响。与传统方法相比,深度学习方法将特征学习和分类器优化整合到一个统一的深度卷积神经网络框架中,利用深层网络的非线性映射提取图像的整体特征。虽然这些方法能有效提高行人属性识别性能,但是忽略了图像的局部特征对属性识别的影响。
发明内容
为了克服现有技术的不足,本发明提供一种基于行人局部和整体属性联合学习的行人属性识别方法。提供了一种实用性强、可明显提高行人再识别准确率的基于行人局部和整体属性联合学习的行人属性识别方法。通过设计基于行人局部和整体属性联合学习的卷积神经网络结构,融合行人部位属性和全身属性进行具有关联性多任务学习,联合学习行人局部和整体属性的判别性特征表示,得到更具判别性的行人属性特征。与现有方法相比,本发明大幅提高了行人属性识别的准确率。
本发明解决其技术问题所采用的技术方案包括以下步骤:
步骤1:准备行人属性识别训练集;
行人属性识别训练集包含行人图片和对应的行人属性标签,其中所有行人属性的类别组成整体行人属性集,按行人的上、下半身部位分别划分为上、下半身行人属性集;所使用的训练图片在现实场景中由多个无重叠视野的摄像机拍摄的图片,经过行人检测器检测或手工标定得到的包含行人大部分部位的图片,行人属性标签由手工标定,行人属性识别数据集包含Market-1501、DukeMTMC-reID和PETA;
行人属性识别训练集表示为共包含N张行人图片,每张行人图片Ii共含有MG个行人属性类别,类别包括但不限于年龄、性别、头发长度、上衣长度、上衣颜色、背包、手提包、裤子类型、裤子颜色、鞋子类型和鞋子颜色,以上MG个行人属性类别组合成第i张行人图片Ii的整体行人属性其中G表示本属性指示整体行人属性,是行人图片Ii的整体行人属性中第j个属性。对整体行人属性集划分为上、下半身两类行人属性集,分别是和其中U表示本属性指示上半身行人属性,D表示本属性指示下半身行人属性,是行人图片Ii的上半身行人属性中第j个属性,是行人图片Ii的下半身行人属性中第j个属性,上半身行人属性集含有MU个行人属性类别,下半身属性集含有MD个属性类别;
步骤2:设计基于行人局部和整体属性联合学习的深度卷积神经网络结构;
深度卷积神经网络包含两个子网络:整体属性学习子网络和局部属性学习子网络;整体属性学习子网络是学习行人全身所有的属性特征并对训练集中行人图片预测整体行人属性类别;局部属性学习子网络包含三个分支,分别学习行人整体和上、下半身的属性特征并预测其对应的属性类别;
采用深度卷积神经网络主体框架为50层的深度残差网络模型——ResNet50模型;ResNet50模型包含多个卷积层和池化层,最后一个隐含层经过全局平均池化操作后,接一个用于分类的全连接分类层fc,用于预测数据集的图片类别,表1给出ResNet50模型的网络层名称:
其中,ResNet50模型包含5个不同的卷积模块:conv1,conv2_x(x=1,2,3),conv3_x(x=1,2,3,4),conv4_x(x=1,2,:::,6)和conv5_x(x=1,2,3),其中x表示卷积模块叠加的数量;
基于行人局部和整体属性联合学习的深度卷积神经网络对ResNet50模型的网络结构进行了修改,所述深度卷积神经网络中,conv4_1层以及之前的网络层与ResNet50模型中的网络层保持一致,conv4_1层之后的网络分开形成两个子网络:整体属性学习子网络和局部属性学习子网络。
在整体属性学习子网络中,所有conv4层和conv5层都同原ResNet50模型的参数设置保持一致,最后的隐含层经过全局最大池化操作后连接一个连接层,学习行人的整体属性特征fG,最后一层属性分类层包含MG个行人整体属性类别,对fG进行如下整体属性预测:
整体属性学习子网络对训练集中行人图片Ii预测MG个行人属性的类别与真实属性类别计算误差,整体属性学习子网络使用的目标函数是二值交叉熵损失函数;对批量处理的nbs张行人图片,二值交叉熵损失函数Lattr计算如下:
在局部属性学习子网络中,所有conv4层与原ResNet50模型的参数设置保持一致,不同的是conv5_1层未经过下采样操作,在conv5_1层后网络分成三个分支:一个分支是对conv5_1层输出的完整特征图进行全身属性学习,与整体属性学习子网络的属性特征学习方法一致;另外两支是采用行人部位生成策略,对conv5_1层输出的特征图的尺寸在竖直方向上一分为二,分成上半身和下半身,然后对上下半身输出的特征图分别进行局部属性学习;三个分支从conv5_1层输出的特征图都经过全局池化操作,然后和全连接层连接,分别得到全身和上、下半身的特征和最后将和分别输入全身和上、下半身的属性分类层;其中,全身的属性分类层包含对所有属性类别进行分类识别,上半身的属性分类层是对上半身属性集的分类识别,而下半身的属性分类层包含对上半身属性集的分类识别;
对全身属性特征输出给属性分类层进行属性预测,通过计算目标函数进行预测,分类层包含MG个行人全身属性类别,对训练集中行人图片Ii预测MG个行人属性的类别,并与真实属性类别计算误差,对全身属性特征输出给属性分类层进行属性预测,使用的目标函数是二值交叉熵损失函数;对批量处理的nbs张行人图片,二值交叉熵损失函数计算如下:
对上半身属性特征输出给属性分类层进行属性预测,分类层包含MU个行人全身属性类别,对训练集中行人图片Ii预测MU个行人属性的类别,并与真实属性类别计算误差,其使用的目标函数是二值交叉熵损失函数。对批量处理的nbs张行人图片,二值交叉熵损失函数计算如下:
对下半身属性特征输出给属性分类层进行属性预测,分类层包含MD个行人全身属性类别;对训练集中行人图片Ii预测MD个行人属性的类别,并与真实属性类别计算误差,其使用的目标函数是二值交叉熵损失函数,对批量处理的nbs张行人图片,二值交叉熵损失函数计算如下:
式中,λ1、λ2和λ3为常数,整个深度卷积神经网络使用多任务学习方法对整体和局部属性学习子网络进行关联性训练;
步骤3:测试阶段:使用已经训练好的深度卷积神经网络对测试集的行人图片提取fG、和特征,并分别用对应的属性分类层输出结果采用投票法,即对四个分类层,每个结果都给一票,最后综合票最多的属性,逐个预测图片的行人属性类别,取票数最多的属性预测结果。
本发明的有益效果在于本发明的基于行人局部和整体属性联合学习的行人属性识别方法,可以有效融合行人部位属性和全身属性进行具有关联性多任务学习,提高属性特征的判别性能力,实现对复杂场景中行人部位属性的更精准的识别,从而提升行人属性的识别性能。
附图说明
图1为本发明的流程示意图。
图2是本发明实例中卷积神经网络的结构示意图。
具体实施方式
下面结合附图和实施例对本发明进一步说明。
本发明提出了一种基于行人局部和整体属性联合学习的行人属性识别方法,有效融合行人部位属性和全身属性进行具有关联性的多任务学习,使深度卷积神经网络学习到学习更具判别性和鲁棒性的行人属性特征,实现对复杂场景中行人部位属性的更精准的识别,提高行人属性识别的准确度。
如图1所示,本发明所述的基于行人局部和整体属性联合学习的行人属性识别方法,包括以下步骤:
步骤1:准备行人属性识别训练集;
行人属性识别训练集包含行人图片和对应的行人属性标签,其中所有行人属性的类别组成整体行人属性集,按行人的上、下半身部位分别划分为上、下半身行人属性集;所使用的训练图片在现实场景中由多个无重叠视野的摄像机拍摄的图片,经过行人检测器检测或手工标定得到的包含行人大部分部位的图片,行人属性标签由手工标定,行人属性识别数据集包含Market-1501、DukeMTMC-reID和PETA;
行人属性识别训练集表示为共包含N张行人图片,每张行人图片Ii共含有MG个行人属性类别,类别包括年龄、性别、头发长度、上衣长度、上衣颜色、背包、手提包、裤子类型、裤子颜色、鞋子类型和鞋子颜色,以上MG个行人属性类别组合成第i张行人图片Ii的整体行人属性其中G表示本属性指示整体行人属性,是行人图片Ii的整体行人属性中第j个属性。对整体行人属性集划分为上、下半身两类行人属性集,分别是和其中U表示本属性指示上半身行人属性,D表示本属性指示下半身行人属性,是行人图片Ii的上半身行人属性中第j个属性,是行人图片Ii的下半身行人属性中第j个属性,上半身行人属性集含有MU个行人属性类别(如年龄、性别、头发长度、上衣长度、上衣颜色、背包等),下半身属性集含有MD个属性类别(如裤子类型、裤子颜色、手提包、鞋子类型、鞋子颜色等);
步骤2:设计基于行人局部和整体属性联合学习的深度卷积神经网络结构;
设计的深度卷积神经网络包含两个子网络:整体属性学习子网络和局部属性学习子网络;整体属性学习子网络是学习行人全身所有的属性特征并对训练集中行人图片预测整体行人属性类别;局部属性学习子网络包含三个分支,分别学习行人整体和上、下半身的属性特征并预测其对应的属性类别;
本发明采用的深度卷积神经网络主体框架为50层的深度残差网络模型——ResNet50模型;深度残差网络模型借鉴了highway网络的思想,在构造网络时增加了捷径连接,使后续层的输出不是传统神经网络中输入的映射,而是输入的映射和输入的叠加,从而解决了深度神经网络训练的梯度消失或爆炸以及特征分布不均匀等问题。同时,神经网络深度的增加使网络具有学习到更多隐含判别性特征的能力。ResNet50模型包含大量的卷积层和池化层,最后一个隐含层经过全局平均池化操作后,会接一个用于分类的全连接分类层fc,用于预测数据集的图片类别。表1给出ResNet50模型的网络层名称:
其中,ResNet50模型包含5个不同的卷积模块:conv1,conv2_x(x=1,2,3),conv3_x(x=1,2,3,4),conv4_x(x=1,2,:::,6)和conv5_x(x=1,2,3),其中x表示卷积模块叠加的数量,更多细节可参考文献“He,K.,Zhang,X.,Ren,S.,&Sun,J.Deep residual learningfor image recognition.In Proceedings of the IEEE Conference on ComputerVision and Pattern Recognition,2016(pp.770-778)”。
本发明设计的基于行人局部和整体属性联合学习的深度卷积神经网络(如图2所示)对ResNet50模型的网络结构进行了修改。所提深度卷积神经网络中,conv4_1层以及之前的网络层与ResNet50模型中的网络层保持一致,conv4_1层之后的网络分开形成两个子网络:整体属性学习子网络和局部属性学习子网络。
在整体属性学习子网络中,所有conv4层和conv5层都同原ResNet50模型的参数设置保持一致,最后的隐含层经过全局最大池化操作后连接一个1024维连接层,学习行人的整体属性特征fG,最后一层属性分类层包含MG个行人整体属性类别,对fG进行如下整体属性预测:
整体属性学习子网络对训练集中行人图片Ii预测MG个行人属性的类别与真实属性类别计算误差,整体属性学习子网络使用的目标函数是二值交叉熵损失函数;对批量处理的nbs张行人图片,二值交叉熵损失函数Lattr计算如下:
在局部属性学习子网络中,所有conv4层与原ResNet50模型(原ResNet50模型见论文“He,K.,Zhang,X.,Ren,S.,&Sun,J.Deep residual learning for imagerecognition.In Proceedings of the IEEE Conference on Computer Vision andPattern Recognition,2016(pp.770-778)”)的参数设置保持一致,不同的是conv5_1层未经过下采样操作,以保护局部特征感受野;在conv5_1层后网络分成三个分支:一个分支是对conv5_1层输出的完整特征图进行全身属性学习,与整体属性学习子网络的属性特征学习方法一致;另外两支是采用行人部位生成策略,对conv5_1层输出的特征图的尺寸在竖直方向上一分为二,分成上半身和下半身,然后对上下半身输出的特征图分别进行局部属性学习。三个分支从conv5_1层输出的特征图都经过全局池化操作,然后和512维的全连接层连接,分别得到全身和上、下半身的特征和最后将和分别输入全身和上、下半身的属性分类层;其中,全身的属性分类层包含对所有属性类别进行分类识别,上半身的属性分类层是对上半身属性集的分类识别,而下半身的属性分类层包含对上半身属性集的分类识别。
对全身属性特征输出给属性分类层进行属性预测,分类层包含MG个行人全身属性类别,对训练集中行人图片Ii预测MG个行人属性的类别,并与真实属性类别计算误差,对全身属性特征输出给属性分类层进行属性预测,使用的目标函数是二值交叉熵损失函数;对批量处理的nbs张行人图片,二值交叉熵损失函数计算如下:
对上半身属性特征输出给属性分类层进行属性预测,分类层包含MU个行人全身属性类别,对训练集中行人图片Ii预测MU个行人属性的类别,并与真实属性类别计算误差,其使用的目标函数是二值交叉熵损失函数。对批量处理的nbs张行人图片,二值交叉熵损失函数计算如下:
对下半身属性特征输出给属性分类层进行属性预测,分类层包含MD个行人全身属性类别;对训练集中行人图片Ii预测MD个行人属性的类别,并与真实属性类别计算误差,其使用的目标函数是二值交叉熵损失函数。对批量处理的nbs张行人图片,二值交叉熵损失函数计算如下:
式中,λ1、λ2和λ3为常数,用于平衡各个损失函数的权重,整个深度卷积神经网络使用多任务学习方法对整体和局部属性学习子网络进行关联性训练。
本发明设计的基于局部和整体属性联合学习的深度卷积神经网络模型,可以有效融合行人部位属性和全身属性进行具有关联性多任务学习,提高属性特征的判别性能力,实现对复杂场景中行人部位属性的更精准的识别,从而提升行人属性的识别性能。
Claims (1)
1.一种基于行人局部和整体属性联合学习的行人属性识别方法,其特征在于包括下述步骤:
步骤1:准备行人属性识别训练集;
行人属性识别训练集包含行人图片和对应的行人属性标签,其中所有行人属性的类别组成整体行人属性集,按行人的上、下半身部位分别划分为上、下半身行人属性集;所使用的训练图片在现实场景中由多个无重叠视野的摄像机拍摄的图片,经过行人检测器检测或手工标定得到的包含行人大部分部位的图片,行人属性标签由手工标定,行人属性识别数据集包含Market-1501、DukeMTMC-reID和PETA;
行人属性识别训练集表示为共包含N张行人图片,每张行人图片Ii共含有MG个行人属性类别,类别包括但不限于年龄、性别、头发长度、上衣长度、上衣颜色、背包、手提包、裤子类型、裤子颜色、鞋子类型和鞋子颜色,以上MG个行人属性类别组合成第i张行人图片Ii的整体行人属性其中G表示本属性指示整体行人属性,是行人图片Ii的整体行人属性中第j个属性,对整体行人属性集划分为上、下半身两类行人属性集,分别是和其中U表示本属性指示上半身行人属性,D表示本属性指示下半身行人属性,是行人图片Ii的上半身行人属性中第j个属性,是行人图片Ii的下半身行人属性中第j个属性,上半身行人属性集含有MU个行人属性类别,下半身属性集含有MD个属性类别;
步骤2:设计基于行人局部和整体属性联合学习的深度卷积神经网络结构;
深度卷积神经网络包含两个子网络:整体属性学习子网络和局部属性学习子网络;整体属性学习子网络是学习行人全身所有的属性特征并对训练集中行人图片预测整体行人属性类别;局部属性学习子网络包含三个分支,分别学习行人整体和上、下半身的属性特征并预测其对应的属性类别;
采用深度卷积神经网络主体框架为50层的深度残差网络模型——ResNet50模型;ResNet50模型包含多个卷积层和池化层,最后一个隐含层经过全局平均池化操作后,接一个用于分类的全连接分类层fc,用于预测数据集的图片类别,表1给出ResNet50模型的网络层名称:
其中,ResNet50模型包含5个不同的卷积模块:Conv1,Conv2_x1,Conv3_x2,Conv4_x3和Conv5_x4,其中,x1=1,2,3,x2=1,2,3,4,x3=1,2,…,6,x4=1,2,3;
基于行人局部和整体属性联合学习的深度卷积神经网络对ResNet50模型的网络结构进行了修改,所述深度卷积神经网络中,Conv4_1层以及之前的网络层与ResNet50模型中的网络层保持一致,Conv4_1层之后的网络分开形成两个子网络:整体属性学习子网络和局部属性学习子网络;
在整体属性学习子网络中,所有Conv4层和Conv5层都同原ResNet50模型的参数设置保持一致,最后的隐含层经过全局最大池化操作后连接一个连接层,学习行人的整体属性特征fG,最后一层属性分类层包含MG个行人整体属性类别,对fG进行如下整体属性预测:
整体属性学习子网络对训练集中行人图片Ii预测MG个行人属性的类别与真实属性类别计算误差,整体属性学习子网络使用的目标函数是二值交叉熵损失函数;对批量处理的nbs张行人图片,二值交叉熵损失函数Lattr计算如下:
在局部属性学习子网络中,所有Conv4层与原ResNet50模型的参数设置保持一致,不同的是Conv5_1层未经过下采样操作,在Conv5_1层后网络分成三个分支:一个分支是对Conv5_1层输出的完整特征图进行全身属性学习,与整体属性学习子网络的属性特征学习方法一致;另外两支是采用行人部位生成策略,对Conv5_1层输出的特征图的尺寸在竖直方向上一分为二,分成上半身和下半身,然后对上下半身输出的特征图分别进行局部属性学习;三个分支从Conv5_1层输出的特征图都经过全局池化操作,然后和全连接层连接,分别得到全身和上、下半身的特征和最后将和分别输入全身和上、下半身的属性分类层;其中,全身的属性分类层包含对所有属性类别进行分类识别,上半身的属性分类层是对上半身属性集的分类识别,而下半身的属性分类层包含对上半身属性集的分类识别;
对全身属性特征输出给属性分类层进行属性预测,通过计算目标函数进行预测,分类层包含MG个行人全身属性类别,对训练集中行人图片Ii预测MG个行人属性的类别,并与真实属性类别计算误差,对全身属性特征输出给属性分类层进行属性预测,使用的目标函数是二值交叉熵损失函数;对批量处理的nbs张行人图片,二值交叉熵损失函数计算如下:
对上半身属性特征输出给属性分类层进行属性预测,分类层包含MU个行人全身属性类别,对训练集中行人图片Ii预测MU个行人属性的类别,并与真实属性类别计算误差,其使用的目标函数是二值交叉熵损失函数,对批量处理的nbs张行人图片,二值交叉熵损失函数计算如下:
对下半身属性特征输出给属性分类层进行属性预测,分类层包含MD个行人全身属性类别;对训练集中行人图片Ii预测MD个行人属性的类别,并与真实属性类别计算误差,其使用的目标函数是二值交叉熵损失函数,对批量处理的nbs张行人图片,二值交叉熵损失函数计算如下:
式中,λ1、λ2和λ3为常数,整个深度卷积神经网络使用多任务学习方法对整体和局部属性学习子网络进行关联性训练;
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910820960.5A CN110569779B (zh) | 2019-08-28 | 2019-08-28 | 基于行人局部和整体属性联合学习的行人属性识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910820960.5A CN110569779B (zh) | 2019-08-28 | 2019-08-28 | 基于行人局部和整体属性联合学习的行人属性识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110569779A CN110569779A (zh) | 2019-12-13 |
CN110569779B true CN110569779B (zh) | 2022-10-04 |
Family
ID=68777335
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910820960.5A Active CN110569779B (zh) | 2019-08-28 | 2019-08-28 | 基于行人局部和整体属性联合学习的行人属性识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110569779B (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114424258B (zh) * | 2019-12-23 | 2024-10-01 | 深圳市欢太科技有限公司 | 属性识别方法、装置、存储介质及电子设备 |
CN111597870B (zh) * | 2020-03-26 | 2022-05-03 | 中国电子科技集团公司第五十二研究所 | 一种基于注意力机制与多任务学习的人体属性识别方法 |
CN111582399B (zh) * | 2020-05-15 | 2023-07-18 | 吉林省森祥科技有限公司 | 一种面向杀菌机器人的多传感器信息融合方法 |
CN111666843B (zh) * | 2020-05-25 | 2023-04-28 | 湖北工业大学 | 一种基于全局特征和局部特征拼接的行人重识别方法 |
CN111898462B (zh) * | 2020-07-08 | 2023-04-07 | 浙江大华技术股份有限公司 | 对象属性的处理方法、装置、存储介质以及电子装置 |
CN111738213B (zh) * | 2020-07-20 | 2021-02-09 | 平安国际智慧城市科技股份有限公司 | 人物属性识别方法、装置、计算机设备及存储介质 |
CN112800978B (zh) * | 2021-01-29 | 2024-09-24 | 北京金山云网络技术有限公司 | 属性识别方法、部位属性提取网络的训练方法和装置 |
CN113095211B (zh) * | 2021-04-08 | 2023-08-25 | 第六镜科技(成都)有限公司 | 一种图像处理方法、系统及电子设备 |
CN114596592B (zh) * | 2022-04-30 | 2022-08-02 | 苏州浪潮智能科技有限公司 | 一种行人重识别方法、系统、设备及计算机可读存储介质 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107704838A (zh) * | 2017-10-19 | 2018-02-16 | 北京旷视科技有限公司 | 目标对象的属性识别方法及装置 |
CN108388882A (zh) * | 2018-03-16 | 2018-08-10 | 中山大学 | 基于全局-局部rgb-d多模态的手势识别方法 |
CN108510000A (zh) * | 2018-03-30 | 2018-09-07 | 北京工商大学 | 复杂场景下行人细粒度属性的检测与识别方法 |
CN108764065A (zh) * | 2018-05-04 | 2018-11-06 | 华中科技大学 | 一种行人重识别特征融合辅助学习的方法 |
CN108921051A (zh) * | 2018-06-15 | 2018-11-30 | 清华大学 | 基于循环神经网络注意力模型的行人属性识别网络及技术 |
CN109034044A (zh) * | 2018-06-14 | 2018-12-18 | 天津师范大学 | 一种基于融合卷积神经网络的行人再识别方法 |
CN109598186A (zh) * | 2018-10-12 | 2019-04-09 | 高新兴科技集团股份有限公司 | 一种基于多任务深度学习的行人属性识别方法 |
CN109635636A (zh) * | 2018-10-30 | 2019-04-16 | 国家新闻出版广电总局广播科学研究院 | 基于属性特征和加权的分块特征相融合的行人再识别方法 |
CN109829356A (zh) * | 2018-12-05 | 2019-05-31 | 科大讯飞股份有限公司 | 神经网络的训练方法及基于神经网络的行人属性识别方法 |
CN109934081A (zh) * | 2018-08-29 | 2019-06-25 | 厦门安胜网络科技有限公司 | 一种基于深度神经网络的行人属性识别方法、装置及存储介质 |
CN110069994A (zh) * | 2019-03-18 | 2019-07-30 | 中国科学院自动化研究所 | 基于人脸多区域的人脸属性识别系统、方法 |
CN110163110A (zh) * | 2019-04-23 | 2019-08-23 | 中电科大数据研究院有限公司 | 一种基于迁移学习和深度特征融合的行人重识别方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10504539B2 (en) * | 2017-12-05 | 2019-12-10 | Synaptics Incorporated | Voice activity detection systems and methods |
-
2019
- 2019-08-28 CN CN201910820960.5A patent/CN110569779B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107704838A (zh) * | 2017-10-19 | 2018-02-16 | 北京旷视科技有限公司 | 目标对象的属性识别方法及装置 |
CN108388882A (zh) * | 2018-03-16 | 2018-08-10 | 中山大学 | 基于全局-局部rgb-d多模态的手势识别方法 |
CN108510000A (zh) * | 2018-03-30 | 2018-09-07 | 北京工商大学 | 复杂场景下行人细粒度属性的检测与识别方法 |
CN108764065A (zh) * | 2018-05-04 | 2018-11-06 | 华中科技大学 | 一种行人重识别特征融合辅助学习的方法 |
CN109034044A (zh) * | 2018-06-14 | 2018-12-18 | 天津师范大学 | 一种基于融合卷积神经网络的行人再识别方法 |
CN108921051A (zh) * | 2018-06-15 | 2018-11-30 | 清华大学 | 基于循环神经网络注意力模型的行人属性识别网络及技术 |
CN109934081A (zh) * | 2018-08-29 | 2019-06-25 | 厦门安胜网络科技有限公司 | 一种基于深度神经网络的行人属性识别方法、装置及存储介质 |
CN109598186A (zh) * | 2018-10-12 | 2019-04-09 | 高新兴科技集团股份有限公司 | 一种基于多任务深度学习的行人属性识别方法 |
CN109635636A (zh) * | 2018-10-30 | 2019-04-16 | 国家新闻出版广电总局广播科学研究院 | 基于属性特征和加权的分块特征相融合的行人再识别方法 |
CN109829356A (zh) * | 2018-12-05 | 2019-05-31 | 科大讯飞股份有限公司 | 神经网络的训练方法及基于神经网络的行人属性识别方法 |
CN110069994A (zh) * | 2019-03-18 | 2019-07-30 | 中国科学院自动化研究所 | 基于人脸多区域的人脸属性识别系统、方法 |
CN110163110A (zh) * | 2019-04-23 | 2019-08-23 | 中电科大数据研究院有限公司 | 一种基于迁移学习和深度特征融合的行人重识别方法 |
Non-Patent Citations (5)
Title |
---|
Part-Based Attribute-Aware Network for Person Re-Identification;Yan Zhang等;《IEEE Access》;20190423;第7卷;53585-53595 * |
Person Re-identification by Deep Learning Attribute-Complementary Information;Arne Schumann等;《2017 IEEE Conference on Computer Vision and Pattern Recognition Workshops (CVPRW)》;20170824;20-28 * |
Person Re-identification by Mid-level Attribute and Part-based Identity Learning;Guopeng Zhang等;《Proceedings of Machine Learning Research》;20181231;220-231 * |
基于属性和身份特征融合的行人再识别技术研究;胡潇;《中国优秀博硕士学位论文全文数据库(硕士)信息科技辑》;20190815;第2019年卷(第8期);I138-1138 * |
多属性融合网络的行人重识别方法;徐思敏等;《计算机工程与应用》;20190321;1-7 * |
Also Published As
Publication number | Publication date |
---|---|
CN110569779A (zh) | 2019-12-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110569779B (zh) | 基于行人局部和整体属性联合学习的行人属性识别方法 | |
CN105740894B (zh) | 一种高光谱遥感图像的语义标注方法 | |
CN110110642B (zh) | 一种基于多通道注意力特征的行人重识别方法 | |
CN108537136B (zh) | 基于姿态归一化图像生成的行人重识别方法 | |
CN108388927B (zh) | 基于深度卷积孪生网络的小样本极化sar地物分类方法 | |
Dev et al. | Color-based segmentation of sky/cloud images from ground-based cameras | |
Workman et al. | A unified model for near and remote sensing | |
CN108090472B (zh) | 基于多通道一致性特征的行人重识别方法及其系统 | |
CN111611874B (zh) | 基于ResNet和Canny的人脸口罩佩戴检测方法 | |
CN113221625B (zh) | 一种利用深度学习的局部特征对齐行人重识别方法 | |
CN112633071B (zh) | 基于数据风格解耦内容迁移的行人重识别数据域适应方法 | |
Ouchra et al. | Object detection approaches in images: a survey | |
Soleimani et al. | Convolutional neural networks for aerial multi-label pedestrian detection | |
CN116363748A (zh) | 基于红外-可见光图像融合的电网现场作业一体管控方法 | |
CN116343329A (zh) | 一种红外-可见光多源图像融合一体管控系统和设备 | |
Wang et al. | Integration of heterogeneous features for remote sensing scene classification | |
CN113792686B (zh) | 基于视觉表征跨传感器不变性的车辆重识别方法 | |
CN111898427A (zh) | 一种基于特征融合深度神经网络的多光谱行人检测方法 | |
CN113269099A (zh) | 基于图匹配的异构无人系统下车辆重新识别方法 | |
CN110659585B (zh) | 一种基于交互属性监督的行人检测方法 | |
Yang et al. | YOLOX with CBAM for insulator detection in transmission lines | |
CN114550016B (zh) | 一种基于上下文信息感知的无人机定位方法及系统 | |
Sebastian et al. | Adversarial loss for semantic segmentation of aerial imagery | |
Sun et al. | Visual cognition inspired vehicle re-identification via correlative sparse ranking with multi-view deep features | |
CN114663916A (zh) | 一种基于深度抽象特征的热红外人体目标识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |