CN106951872B - 一种基于无监督深度模型与层次属性的行人再识别方法 - Google Patents
一种基于无监督深度模型与层次属性的行人再识别方法 Download PDFInfo
- Publication number
- CN106951872B CN106951872B CN201710183144.9A CN201710183144A CN106951872B CN 106951872 B CN106951872 B CN 106951872B CN 201710183144 A CN201710183144 A CN 201710183144A CN 106951872 B CN106951872 B CN 106951872B
- Authority
- CN
- China
- Prior art keywords
- attribute
- grained
- pedestrian
- fine
- coarse
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
Abstract
本发明公开一种基于无监督深度模型与层次属性的行人再识别方法,该方法首先对行人图片进行预处理,并按人体部位分割成互相重叠的多个分块,然后,构建含有三个隐含层的卷积神经网络,并通过堆叠的卷积自动编码器来训练模型,利用行人数据集对模型进行预训练和微调,接着,为行人设计层次属性并为每个属性设计一个分类器,将卷积神经网络中提取的行人特征输入各属性分类器得到对应属性的概率,再结合属性类别映射关系得到类别的后验概率,从而判断样本所属类别。本发明有效解决了缺乏带标签训练样本的问题,提高了行人再识别的准确率。
Description
技术领域
本发明涉及模式识别技术领域,具体涉及一种基于无监督深度模型与层次属性的行人再识别方法。
背景技术
随着人们对社会公共安全的日益关注以及视频采集技术和大规模数据存储技术的发展, 大量的监控摄像头应用在商场、公园、学校、医院、公司、体育场馆、大型广场、地铁站等人群密集易发生公共安全事件的场所。监控摄像的出现无疑给人们带来了极大便利。监控视频可为公安部门提供诸如商场盗窃、聚众斗殴、银行卡盗窃等重大刑事案件的线索;同时也可为交通协管部门提供大量实时交通路况信息方便其对交通进行监管;对于个人和商户监控也成为其保护财产维护权益的重要手段。然而,普通的视频监控系统往往面临着一个操作人员需要负责多个摄像头的监控视频,从而造成监控工作枯燥无味,且监控效果易受人为因素,如责任心、情感因素等的影响;此外人工已难以应对海量增长的监控视频,因此利用计算机对监控视频中的行人进行再识别的需求应运而生。
行人再识别涉及的主要技术包括特征提取和分类器设计。在特征提取方面,传统方法是对大量有标签的数据进行有监督的模型训练,但考虑到在监控视频中出现的行人众多,对所有行人都提供大量有标签的训练图像是一个不可能完成的任务,因此,只有依靠无监督的模型训练来实现对视频中行人的特征提取。
而在分类器设计方面,传统的HOG特征,SIFT特征等虽然已取得了较好的成绩,但是这些底层特征由于缺乏语义特性,使得行人再识别系统的应用受到了限制。富有语义表达能力的属性作为高于颜色、纹理等低层特征的中层特征,在行人再识别方法中是个不错的选择。但是由于人类的认知具有一个层次过程,也就是先对粗略的特征有感知,而后才对更细化的特征进行感知,在记忆过程中也是如此,能够记住一些大致的特征,却往往遗忘一些细节特征。例如,在对疑犯进行描述时,目击者会遗忘一些详细的外貌信息,只对一些粗粒度信息保留印象。因此,仅仅利用单层的属性来进行再识别大大限制了行人再识别的应用范围。
发明内容
为了克服上述现有技术的缺陷,本发明在深度学习和属性学习的基础上,提出利用CAE 无监督学习方式训练CNN模型,并引入层次属性的概念,提出一种基于无监督深度模型与层次属性的行人再识别方法。
为了实现上述目的,本发明具体技术方案如下:一种基于无监督深度模型与层次属性的行人再识别方法,包括深度模型训练、行人特征提取、层次属性学习和分类识别四个步骤,其中,深度模型训练还包括如下步骤:
1)对预训练数据集CUHK和微调数据集VIPeR中图像分别进行预处理和分块;
2)将预处理和分块后的VIPeR数据集等分为8份,随机选择其中7份作为训练样本VIPeR_train,另1份作为测试样本VIPeR_test;
3)构建一个深度卷积神经网络(Convolutional Neural Network,CNN)模型,模型包含三个隐含层,每个隐含层都由多个卷积自动编码器(Convolutional Auto-Encode,CAE)构成;其中,第一隐含层包括20个CAE,第二隐含层包括50个CAE,第三隐含层包括 100个CAE;
4)利用预处理后的CUHK和VIPeR_train对CNN进行模型训练,训练方法采用CAE的无监督重构方式,得到训练完毕的CNN模型;
行人特征提取还包括如下步骤:
5)将VIPeR_train输入训练完毕的CNN模型,得到关于每张图像5个分块的共500张特征图,其中,每个分块有100张特征图;
6)对特征图进行转化,将每张特征图的二维矩阵按照每列相接的方式转化为一维特征向量,再将每个分块中100个特征向量相连接成为一个一维分块特征向量;
层次属性学习还包括如下步骤:
7)设计行人层次属性,行人层次属性包括粗粒度属性{A1,A2,…Ak,…AN}和细粒度属性 {a1,a2,…al,…aM};其中,N=17,M=16;
8)对VIPeR数据集中的每一个行人图像进行属性标注;
9)为每一个属性分配一个支持向量机(Support Vector Machine,SVM)作为属性分类器,并利用分块特征向量和相应的属性标注对每一个属性分类器进行训练,得到训练完毕的属性分类器;
分类识别还包括如下步骤:
10)根据属性标注,统计VIPeR_test数据集中每一个行人的属性类别映射概率,得到属性类别映射关系表,其中,属性类别映射关系表中粗粒度属性对应的概率为Ak代表属性k,yj代表类别j,代表具有粗粒度属性Ak且属于类别yj的样本个数,代表具有粗粒度属性Ak的样本个数;属性类别映射关系表中细粒度属性对应的概率为其中al代表细粒度属性l,yj代表类别j,代表具有细粒度属性al且属于类别yj的样本个数,代表具有细粒度属性al的样本个数;
11)设定层次属性的权值,粗粒度属性权值用w1表示,细粒度属性权值用w2表示;
12)将VIPeR_test中样本xt输入训练完毕的CNN得到对应的分块特征图,再将每个分块中的所有特征图转化为一维分块特征向量,并输入训练完毕的各属性分类器,得到样本具有粗粒度属性Ak的后验概率p(Ak|xt)和细粒度属性al的后验概率p(al|xt),结合属性类别映射关系表,通过贝叶斯公式得到在粗粒度属性下类别yj关于样本xt的后验概率p1(yj|xt)和在细粒度属性下类别yj关于样本xt的后验概率p2(yj|xt),其中,样本xt为VIPeR_test测试样本{x1,x2,...,xt,...,xp}中的第t张分块行人图像,贝叶斯公式为:和
13)计算样本关于类别的最终后验概率,计算公式为:
p(yj|xt)=w1p1(yj|xt)+w2p2(yj|xt);
进一步地,上述步骤1)中图像预处理和分块还包括如下步骤:
1.1)将CUHK和VIPeR中的行人图像大小统一为128×48像素;
1.2)将统一后的图像根据人体部位分割成具有重叠部分的5个分块,从上到下,第一个分块高度为1到36像素,宽度为1到48像素,包含行人的头部和发型;第二个分块高度为14到73像素,宽度为1到48像素,包含行人的上半身;第三个分块高度为36到103像素,宽度为1到48像素,包含行人上半身的一部分和下半身的一部分;第四分块高度为60 到111像素,宽度为1到48像素,包含行人的腿部;第五分块高度为101到128像素,宽度为1到48像素,包含行人的脚部。
1.3)将行人图像的每个分块进行归一化处理。
进一步地,上述步骤3)中,三个隐层的第一隐含层20个CAE,对应20个特征平面,卷积核大小为5×5,最大池化窗口大小为2×2;第二隐含层50个CAE,对应50个特征平面,卷积核大小为5×5,最大池化窗口大小为2×2;第三隐含层100个CAE,对应100个特征平面,卷积核大小为5×4,最大池化窗口大小为2×2。
进一步地,上述步骤4)中,对CNN进行模型训练包括如下步骤:
4.1)将预处理过的CUHK数据集图像对CNN进行预训练;
4.2)将预处理过的VIPeR_train数据集对CNN进行微调。
进一步地,上述步骤7)中,粗粒度属性有17个,包括:“带帽”、“非长发”、“长发”、“长袖”、“短袖”、“无袖”、“穿外套”、“上衣花纹”、“有logo”、“长下装”、“短下装”、“下装花纹”、“背包”、“手拿物”、“凉鞋”、“单鞋”、“靴子”;细粒度属性有16个,包括:“秃头”、“短发”、“盘发”、“齐肩”、“披头”、“马尾”、“非条纹”、“密集条纹”、“稀疏条纹”、“长裤”、“长裙”、“双肩包”、“单肩包”、“手提包”、“手拿物品”、“行李箱”;其中,粗粒度和细粒度属性对应关系如下:粗粒度属性“非长发”对应细粒度属性(“秃头”、“短发”、“盘发”),粗粒度属性“长发”对应细粒度属性(“齐肩”、“披头”、“马尾”),粗粒度属性“上衣花纹”对应细粒度属性(“非条纹”、“密集条纹”、“稀疏条纹”),粗粒度属性“长下装”对应细粒度属性(“长裤”、“长裙”),粗粒度属性“背包”对应细粒度属性(“双肩包”、“单肩包”),粗粒度属性“手拿物”对应细粒度属性(“手提包”、“手拿物品”、“行李箱”)。
本发明的有益效果在于:利用CAE的无监督学习方法预训练CNN模型,有效解决了缺乏训练样本的问题;利用CAE能够较好地重构图像的特点,有效提高了行人再识别的准确率;通过引入层次属性使得对行人的再识别更加符合人类认知规律,让行人再识别方法富有语义表达能力的同时更加具有实际应用价值。
附图说明
图1是本发明所述的行人再识别方法结构示意图。
图2是本发明所述CAE无监督训练过程示意图。
图3是本发明所述层次属性样例图。
图4是本发明所述属性类别映射关系示例表。
具体实施方式
下面结合附图对本发明作进一步描述。
图1为本发明提出的基于无监督深度模型与层次属性的行人再识别方法结构示意图。分为深度模型训练、行人特征提取、层次属性学习和分类识别四个阶段。
在模型训练阶段,包括如下步骤:
1)对预训练数据库CUHK和微调数据库VIPeR中图像分别进行预处理和分块;其中,图像预处理和分块的方法是:
1.1)将CUHK和VIPeR中的行人图像大小统一为128×48像素;
1.2)将统一后的图像根据人体部位分割成具有重叠部分的5个分块,从上到下,第一个分块高度为1到36像素,宽度为1到48像素,包含行人的头部和发型;第二个分块高度为14到 73像素,宽度为1到48像素,包含行人的上半身;第三个分块高度为36到103像素,宽度为1 到48像素,包含行人上半身的一部分和下半身的一部分;第四分块高度为60到111像素,宽度为1到48像素,包含行人的腿部;第五分块高度为101到128像素,宽度为1到48像素,包含行人的脚部。
1.3)将行人图像的每个分块进行归一化处理。
2)将预处理和分块后的VIPeR数据集分为训练样本VIPeR_train和测试样本VIPeR_test;具体实施中,将VIPeR数据集中的共1264张行人图像随机等分为8份,每份拥有158张分块行人图像,将其中7份共1106张分块行人图像作为训练样本VIPeR_train,另外1份共158张分块行人图像作为测试样本VIPeR_test。
3)构建一个深度卷积神经网络CNN模型,模型包含三个隐含层,每个隐含层都由多个卷积自动编码器CAE构成;本发明实施例中,三个隐层的第一个隐含层包括20个CAE,对应20个特征平面,卷积核大小为5×5,最大池化窗口大小为2×2;第二隐含层包括50个CAE,对应 50个特征平面,卷积核大小为5×5,最大池化窗口大小为2×2;第三隐含层包括100个CAE,对应100个特征平面,卷积核大小为5×4,最大池化窗口大小为2×2。
4)利用预处理后的CUHK和VIPeR_train对CNN进行模型训练,训练方法采用CAE的无监督重构方式,得到训练完毕的CNN模型;其中,进行模型训练包括如下步骤:
4.1)将预处理过的CUHK数据集图像对CNN进行预训练,本发明具体实施例中,学习率为 0.001,迭代次数为1000次;
4.2)将预处理过的VIPeR_train数据集对CNN进行微调,本发明具体实施例中,学习率为0.0001,迭代次数为1000次。
图2所示为是本发明具体实施例CAE无监督训练过程,每一层的输入图像X进行卷积操作得到一系列特征图H,经过Max-Pooling后通过反卷积操作重构原输入图像得到Y,X与Y的误差作为该隐含层的参数调整依据,权值和偏置的更新通过BP算法获得。Max-Pooling后的图像将作为下一层的输入,再次进行一轮学习过程,本方法总共需要进行如此的三轮学习过程。
在特征提取阶段,包括如下步骤:
5)将VIPeR_train输入训练完毕的CNN模型,得到关于每张图像5个分块共500张特征图,其中,每个分块有100张特征图;
6)将特征图转化为一维分块特征向量,方法是将每张特征图的二维矩阵按照每列相接的方式转化为一维特征向量,再将每个分块中100个特征向量相连接成为一个一维分块特征向量。
在层次属性学习阶段,包括如下步骤:
7)设计行人层次属性,行人层次属性包括粗粒度属性{A1,A2,…Ak,…AN}和细粒度属性 {a1,a2,…al,…aM},N为粗粒度属性个数,M为细粒度属性个数;具体实施中,N=17,M=16,17 个粗粒度属性包括:“带帽”、“非长发”、“长发”、“长袖”、“短袖”、“无袖”、“穿外套”、“上衣花纹”、“有logo”、“长下装”、“短下装”、“下装花纹”、“背包”、“手拿物”、“凉鞋”、“单鞋”、“靴子”;16个细粒度属性包括:“秃头”、“短发”、“盘发”、“齐肩”、“披头”、“马尾”、“非条纹”、“密集条纹”、“稀疏条纹”、“长裤”、“长裙”、“双肩包”、“单肩包”、“手提包”、“手拿物品”、“行李箱”;粗粒度和细粒度属性对应关系如图3所示:粗粒度属性“非长发”对应细粒度属性(“秃头”、“短发”、“盘发”),粗粒度属性“长发”对应细粒度属性 (“齐肩”、“披头”、“马尾”),粗粒度属性“上衣花纹”对应细粒度属性(“非条纹”、“密集条纹”、“稀疏条纹”),粗粒度属性“长下装”对应细粒度属性(“长裤”、“长裙”),粗粒度属性“背包”对应细粒度属性(“双肩包”、“单肩包”),粗粒度属性“手拿物”对应细粒度属性(“手提包”、“手拿物品”、“行李箱”)。
8)对VIPeR数据集中的每一个行人图像进行属性标注,将行人图像所具有的属性标注为 1,不具有的属性标注为0;
9)为每一个属性分配一个支持向量机SVM作为属性分类器,并利用分块特征向量和相应的属性标注对每一个属性分类器进行训练,得到训练完毕的属性分类器;
在分类识别阶段,包括如下步骤:
10)根据属性标注,统计VIPeR_test数据集中每一个行人的属性类别映射概率,得到属性类别映射关系表,其中,属性类别映射关系表中粗粒度属性对应的概率为Ak代表属性k,yj代表类别j,代表具有粗粒度属性Ak且属于类别 yj的样本个数,代表具有粗粒度属性Ak的样本个数;属性类别映射关系表中细粒度属性对应的概率为其中al代表细粒度属性l,yj代表类别j,代表具有细粒度属性al且属于类别yj的样本个数,代表具有细粒度属性al的样本个数,图4例举了10个属性和10个行人类别之间的概率映射关系;
11)设定层次属性的权值,粗粒度属性权值用w1表示,细粒度属性权值用w2表示;本发明具体实施例中,当缺乏细粒度属性描述时,w1=1,w2=0;当存在细粒度属性描述时,w1=0.6,w2=0.4;
12)将VIPeR_test中样本xt输入训练完毕的CNN得到对应的分块特征图,再将每个分块中的所有特征图转化为一维分块特征向量,并输入训练完毕的各属性分类器,得到样本具有粗粒度属性Ak的后验概率p(Ak|xt)和细粒度属性al的后验概率p(al|xt),结合属性类别映射关系表,通过贝叶斯公式得到在粗粒度属性下类别yj关于样本xt的后验概率p1(yj|xt)和在细粒度属性下类别yj关于样本xt的后验概率p2(yj|xt),其中,样本xt为VIPeR_test测试样本{x1,x2,...,xt,...,xp}中的第t张分块行人图像,贝叶斯公式为:和
13)计算样本关于类别的最终后验概率,计算公式为:
p(yj|xt)=w1p1(yj|xt)+w2p2(yj|xt);
Claims (4)
1.一种基于无监督深度模型与层次属性的行人再识别方法,其特征在于包括深度模型训练、行人特征提取、层次属性学习和分类识别四个步骤,其中,所述深度模型训练包括如下步骤:
1)对预训练数据库CUHK和微调数据库VIPeR中图像分别进行预处理和分块;
2)将预处理和分块后的VIPeR数据集等分为8份,随机选择其中7份作为训练样本VIPeR_train,另1份作为测试样本VIPeR_test;
3)构建一个深度卷积神经网络CNN模型,模型包含三个隐含层,每个隐含层都由多个卷积自动编码器CAE构成,其中,第一隐含层包括20个CAE,第二隐含层包括50个CAE,第三隐含层包括100个CAE;
4)利用预处理后的CUHK和VIPeR_train对CNN进行模型训练,训练方法采用CAE的无监督重构方式,得到训练完毕的CNN模型;
所述行人特征提取包括如下步骤:
5)将VIPeR_train输入训练完毕的CNN模型,得到关于每张图像5个分块的共500张特征图,其中每个分块有100张特征图;
6)对特征图进行转化,将每张特征图的二维矩阵按照每列相接的方式转化为一维特征向量,再将每个分块中100个特征向量相连接成为一个一维分块特征向量;
所述层次属性学习包括如下步骤:
7)设计行人层次属性,行人层次属性包括粗粒度属性{A1,A2,…Ak,…AN}和细粒度属性{a1,a2,…al,…aM},其中,N=17,M=16;
8)对VIPeR数据集中的每一个行人图像进行属性标注;
9)为每一个属性分配一个支持向量机SVM作为属性分类器,并利用分块特征向量和相应的属性标注对每一个属性分类器进行训练,得到训练完毕的属性分类器;
所述分类识别包括如下步骤:
10)根据属性标注,统计VIPeR_test数据集中每一个行人的属性类别映射概率,得到属性类别映射关系表,其中,属性类别映射关系表中粗粒度属性对应的概率为Ak代表粗粒度属性k,yj代表类别j,代表具有粗粒度属性Ak且属于类别yj的样本个数,代表具有粗粒度属性Ak的样本个数;属性类别映射关系表中细粒度属性对应的概率为其中al代表细粒度属性l,yj代表类别j,代表具有细粒度属性al且属于类别yj的样本个数,代表具有细粒度属性al的样本个数;
11)设定层次属性的权值,粗粒度属性权值用w1表示,细粒度属性权值用w2表示;
12)将VIPeR_test中样本xt输入训练完毕的CNN得到对应的分块特征图,再将每个分块中的所有特征图转化为一维分块特征向量,并输入训练完毕的各属性分类器,得到样本具有粗粒度属性Ak的后验概率p(Ak|xt)和细粒度属性al的后验概率p(al|xt),结合属性类别映射关系表,通过贝叶斯公式得到在粗粒度属性下类别yj关于样本xt的后验概率p1(yj|xt)和在细粒度属性下类别yj关于样本xt的后验概率p2(yj|xt),其中,样本xt为VIPeR_test测试样本{x1,x2,...,xt,...,xp}中的第t张分块行人图像,贝叶斯公式为:和
13)计算样本关于类别的最终后验概率,计算公式为:
p(yj|xt)=w1p1(yj|xt)+w2p2(yj|xt);
所述步骤1)中图像预处理和分块还包括如下步骤:
1.1)将CUHK和VIPeR中的行人图像大小统一为128×48像素;
1.2)将统一后的图像根据人体部位分割成具有重叠部分的5个分块,从上到下,第一个分块高度为1到36像素,宽度为1到48像素,包含行人的头部和发型;第二个分块高度为14到73像素,宽度为1到48像素,包含行人的上半身;第三个分块高度为36到103像素,宽度为1到48像素,包含行人上半身的一部分和下半身的一部分;第四分块高度为60到111像素,宽度为1到48像素,包含行人的腿部;第五分块高度为101到128像素,宽度为1到48像素,包含行人的脚部;
1.3)将行人图像的每个分块进行归一化处理。
2.根据权利要求1所述的基于无监督深度模型与层次属性的行人再识别方法,其特征在于,所述步骤3)中,第一隐含层20个CAE,对应20个特征平面,卷积核大小为5×5,最大池化窗口大小为2×2;第二隐含层50个CAE,对应50个特征平面,卷积核大小为5×5,最大池化窗口大小为2×2;第三隐含层100个CAE,对应100个特征平面,卷积核大小为5×4,最大池化窗口大小为2×2。
3.根据权利要求1所述的基于无监督深度模型与层次属性的行人再识别方法,其特征在于所述步骤4)中,对CNN进行模型训练包括如下步骤:
4.1)将预处理过的CUHK数据集图像对CNN进行预训练;
4.2)将预处理过的VIPeR_train数据集对CNN进行微调。
4.根据权利要求1所述的基于无监督深度模型与层次属性的行人再识别方法,其特征在于所述步骤7)中,粗粒度属性有17个,包括:“带帽”、“非长发”、“长发”、“长袖”、“短袖”、“无袖”、“穿外套”、“上衣花纹”、“有logo”、“长下装”、“短下装”、“下装花纹”、“背包”、“手拿物”、“凉鞋”、“单鞋”、“靴子”;细粒度属性有16个,包括:“秃头”、“短发”、“盘发”、“齐肩”、“披头”、“马尾”、“非条纹”、“密集条纹”、“稀疏条纹”、“长裤”、“长裙”、“双肩包”、“单肩包”、“手提包”、“手拿物品”、“行李箱”;其中,粗粒度和细粒度属性对应关系如下:粗粒度属性“非长发”对应细粒度属性“秃头”、“短发”、“盘发”,粗粒度属性“长发”对应细粒度属性“齐肩”、“披头”、“马尾”,粗粒度属性“上衣花纹”对应细粒度属性“非条纹”、“密集条纹”、“稀疏条纹”,粗粒度属性“长下装”对应细粒度属性“长裤”、“长裙”,粗粒度属性“背包”对应细粒度属性“双肩包”、“单肩包”,粗粒度属性“手拿物”对应细粒度属性“手提包”、“手拿物品”、“行李箱”。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710183144.9A CN106951872B (zh) | 2017-03-24 | 2017-03-24 | 一种基于无监督深度模型与层次属性的行人再识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710183144.9A CN106951872B (zh) | 2017-03-24 | 2017-03-24 | 一种基于无监督深度模型与层次属性的行人再识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106951872A CN106951872A (zh) | 2017-07-14 |
CN106951872B true CN106951872B (zh) | 2020-11-06 |
Family
ID=59472856
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710183144.9A Active CN106951872B (zh) | 2017-03-24 | 2017-03-24 | 一种基于无监督深度模型与层次属性的行人再识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106951872B (zh) |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107729805B (zh) * | 2017-09-01 | 2019-09-13 | 北京大学 | 用于行人再识别的神经网络和基于深度学习的行人再识别算法 |
CN111052126A (zh) * | 2017-09-04 | 2020-04-21 | 华为技术有限公司 | 行人属性识别与定位方法以及卷积神经网络系统 |
CN107704811A (zh) * | 2017-09-14 | 2018-02-16 | 云南大学 | 一种基于模糊鲁棒特征的行人再识别方法及模块装置 |
CN107766890B (zh) * | 2017-10-31 | 2021-09-14 | 天津大学 | 一种细粒度识别中判别性图块学习的改进方法 |
CN107909095A (zh) * | 2017-11-07 | 2018-04-13 | 江苏大学 | 一种基于深度学习的图像识别方法 |
CN107944403B (zh) * | 2017-11-29 | 2021-03-19 | 青岛海信网络科技股份有限公司 | 一种图像中的行人属性检测方法及装置 |
CN107977624A (zh) * | 2017-11-30 | 2018-05-01 | 国信优易数据有限公司 | 一种语义分割方法、装置以及系统 |
CN108460407A (zh) * | 2018-02-02 | 2018-08-28 | 东华大学 | 一种基于深度学习的行人属性精细化识别方法 |
CN108288051B (zh) * | 2018-02-14 | 2020-11-27 | 北京市商汤科技开发有限公司 | 行人再识别模型训练方法及装置、电子设备和存储介质 |
CN109934081A (zh) * | 2018-08-29 | 2019-06-25 | 厦门安胜网络科技有限公司 | 一种基于深度神经网络的行人属性识别方法、装置及存储介质 |
CN109635636B (zh) * | 2018-10-30 | 2023-05-09 | 国家新闻出版广电总局广播科学研究院 | 基于属性特征和加权的分块特征相融合的行人再识别方法 |
CN109558810B (zh) * | 2018-11-12 | 2023-01-20 | 北京工业大学 | 基于部位分割与融合目标人物识别方法 |
CN109919177B (zh) * | 2019-01-23 | 2022-03-29 | 西北工业大学 | 基于层次化深度网络的特征选择方法 |
CN110163127A (zh) * | 2019-05-07 | 2019-08-23 | 国网江西省电力有限公司检修分公司 | 一种由粗到细的视频目标行为识别方法 |
CN110175595B (zh) * | 2019-05-31 | 2021-03-02 | 北京金山云网络技术有限公司 | 人体属性识别方法、识别模型训练方法及装置 |
CN110458215B (zh) * | 2019-07-30 | 2023-03-24 | 天津大学 | 基于多时态注意力模型的行人属性识别方法 |
CN110458233B (zh) * | 2019-08-13 | 2024-02-13 | 腾讯云计算(北京)有限责任公司 | 混合粒度物体识别模型训练及识别方法、装置及存储介质 |
CN111145211B (zh) * | 2019-12-05 | 2023-06-30 | 大连民族大学 | 单目摄像机直立行人头部像素高度获取方法 |
CN111178251B (zh) * | 2019-12-27 | 2023-07-28 | 汇纳科技股份有限公司 | 一种行人属性识别方法及系统、存储介质及终端 |
CN111241982B (zh) * | 2020-01-07 | 2023-04-28 | 金陵科技学院 | 一种基于cae-svm的机器人手势识别方法 |
CN111860672B (zh) * | 2020-07-28 | 2021-03-16 | 北京邮电大学 | 一种基于分块卷积神经网络的细粒度图像分类方法 |
CN112464820A (zh) * | 2020-11-30 | 2021-03-09 | 江苏金鑫信息技术有限公司 | 一种无人车辆智能识别方法 |
CN113657186A (zh) * | 2021-07-26 | 2021-11-16 | 浙江大华技术股份有限公司 | 一种基于行人重识别的特征提取方法、装置和存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104992142A (zh) * | 2015-06-03 | 2015-10-21 | 江苏大学 | 一种基于深度学习和属性学习相结合的行人识别方法 |
CN105160866A (zh) * | 2015-08-07 | 2015-12-16 | 浙江高速信息工程技术有限公司 | 一种基于深度学习神经网络结构的交通流预测方法 |
CN105631415A (zh) * | 2015-12-25 | 2016-06-01 | 中通服公众信息产业股份有限公司 | 一种基于卷积神经网络的视频行人识别方法 |
CN105740773A (zh) * | 2016-01-25 | 2016-07-06 | 重庆理工大学 | 基于深度学习和多尺度信息的行为识别方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8311973B1 (en) * | 2011-09-24 | 2012-11-13 | Zadeh Lotfi A | Methods and systems for applications for Z-numbers |
CN106156807B (zh) * | 2015-04-02 | 2020-06-02 | 华中科技大学 | 卷积神经网络模型的训练方法及装置 |
CN106203318B (zh) * | 2016-06-29 | 2019-06-11 | 浙江工商大学 | 基于多层次深度特征融合的摄像机网络行人识别方法 |
CN106447039A (zh) * | 2016-09-28 | 2017-02-22 | 西安交通大学 | 基于自编码神经网络的无监督特征提取方法 |
-
2017
- 2017-03-24 CN CN201710183144.9A patent/CN106951872B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104992142A (zh) * | 2015-06-03 | 2015-10-21 | 江苏大学 | 一种基于深度学习和属性学习相结合的行人识别方法 |
CN105160866A (zh) * | 2015-08-07 | 2015-12-16 | 浙江高速信息工程技术有限公司 | 一种基于深度学习神经网络结构的交通流预测方法 |
CN105631415A (zh) * | 2015-12-25 | 2016-06-01 | 中通服公众信息产业股份有限公司 | 一种基于卷积神经网络的视频行人识别方法 |
CN105740773A (zh) * | 2016-01-25 | 2016-07-06 | 重庆理工大学 | 基于深度学习和多尺度信息的行为识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN106951872A (zh) | 2017-07-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106951872B (zh) | 一种基于无监督深度模型与层次属性的行人再识别方法 | |
Liznerski et al. | Explainable deep one-class classification | |
CN102521595B (zh) | 一种基于眼动数据和底层特征的图像感兴趣区域提取方法 | |
Kalinicheva et al. | Unsupervised change detection analysis in satellite image time series using deep learning combined with graph-based approaches | |
CN105825183B (zh) | 基于部分遮挡图像的人脸表情识别方法 | |
CN102938065B (zh) | 基于大规模图像数据的人脸特征提取方法及人脸识别方法 | |
CN106469465A (zh) | 一种基于灰度和深度信息的三维人脸重建方法 | |
Zhang et al. | Semantic classification of high-resolution remote-sensing images based on mid-level features | |
CN110334687A (zh) | 一种基于行人检测、属性学习和行人识别的行人检索增强方法 | |
CN106096542B (zh) | 基于距离预测信息的图像视频场景识别方法 | |
CN105740915B (zh) | 一种融合感知信息的协同分割方法 | |
Hassanat et al. | Colour-based lips segmentation method using artificial neural networks | |
CN112464730B (zh) | 一种基于域无关前景特征学习的行人再识别方法 | |
CN106897669A (zh) | 一种基于一致迭代多视角迁移学习的行人再辨识方法 | |
CN109886153A (zh) | 一种基于深度卷积神经网络的实时人脸检测方法 | |
CN110263605A (zh) | 基于二维人体姿态估计的行人服饰颜色识别方法及装置 | |
Gao et al. | A novel face feature descriptor using adaptively weighted extended LBP pyramid | |
CN106845456A (zh) | 一种视频监控系统中人体摔倒监测的方法 | |
Ihsan et al. | Superpixels features extractor network (SP-FEN) for clothing parsing enhancement | |
Wang et al. | Classification of high spatial resolution remote sensing images based on decision fusion | |
CN114782979A (zh) | 一种行人重识别模型的训练方法、装置、存储介质及终端 | |
Kishore Kumar et al. | Face verification across ages using discriminative methods and see 5.0 classifier | |
Zhang et al. | Human action recognition bases on local action attributes | |
Sarı et al. | Automatic detection and visualization of garment color in Western portrait paintings | |
Stylianou-Nikolaidou et al. | A novel CNN-LSTM hybrid architecture for the recognition of human activities |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |