CN109446898A - 一种基于迁移学习和特征融合的行人重识别方法 - Google Patents
一种基于迁移学习和特征融合的行人重识别方法 Download PDFInfo
- Publication number
- CN109446898A CN109446898A CN201811097958.1A CN201811097958A CN109446898A CN 109446898 A CN109446898 A CN 109446898A CN 201811097958 A CN201811097958 A CN 201811097958A CN 109446898 A CN109446898 A CN 109446898A
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- feature
- network
- sample
- picture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 45
- 230000004927 fusion Effects 0.000 title claims abstract description 23
- 238000013526 transfer learning Methods 0.000 title claims abstract description 20
- 238000012549 training Methods 0.000 claims abstract description 40
- 238000013528 artificial neural network Methods 0.000 claims abstract description 24
- 230000006870 function Effects 0.000 claims abstract description 19
- 239000000284 extract Substances 0.000 claims abstract description 14
- 238000000605 extraction Methods 0.000 claims abstract description 11
- 238000013527 convolutional neural network Methods 0.000 claims description 19
- 230000008569 process Effects 0.000 claims description 17
- 230000013016 learning Effects 0.000 claims description 14
- 238000012360 testing method Methods 0.000 claims description 14
- 239000011159 matrix material Substances 0.000 claims description 12
- 238000013507 mapping Methods 0.000 claims description 10
- 241000271897 Viperidae Species 0.000 claims description 9
- 241000039077 Copula Species 0.000 claims description 6
- 239000000203 mixture Substances 0.000 claims description 6
- 230000017105 transposition Effects 0.000 claims description 6
- 238000013480 data collection Methods 0.000 claims description 5
- 238000013135 deep learning Methods 0.000 claims description 5
- 238000009826 distribution Methods 0.000 claims description 5
- 238000012850 discrimination method Methods 0.000 claims description 3
- 230000007246 mechanism Effects 0.000 claims description 3
- 235000013399 edible fruits Nutrition 0.000 claims 1
- 230000000694 effects Effects 0.000 abstract description 4
- 238000012986 modification Methods 0.000 abstract description 2
- 230000004048 modification Effects 0.000 abstract description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000007812 deficiency Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 210000004218 nerve net Anatomy 0.000 description 1
- 238000009394 selective breeding Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000009966 trimming Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Evolutionary Biology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于迁移学习和特征融合的行人重识别方法,包括以下步骤:获取行人数据,通过神经网络进行初步训练,修改完了结构并结合改进的损失函数在数据集中进行再次训练;进行手工特征提取和神经网络特征提取;提取特征之后,对两种特征进行融合,得到高‑低级特征;使用XQDA算法对高‑低级特征进行分类和验证,获取重识别结果;本发明采用交叉熵损失函数和三元组损失函数对整个网络加以更强的约束,再提取手工特征和卷积网络特征进行特征融合,形成高‑低级特征,覆盖行人特征表达的不同层次,达到较好的识别效果,并以微调的形式减少训练时间,对于小数据集具有良好的泛化性和可移植性。
Description
技术领域
本发明涉及计算机视觉的研究领域,特别涉及一种基于迁移学习和特征融合的行人重识别方法。
背景技术
行人重识别过程主要由两部分组成,即特征学习部分和度量学习部分。现有的行人重识别方法多是试图提取出一个足够好的特征表达,使其可以描述一个人在不同条件下具有独特性和鲁棒性的特征,基于此目的研究者们从色彩,纹理和形状等不同角度设计出多种手工特征,并取得了较好的结果。度量学习方面,使用标准的距离度量如欧式距离不能很好的计算行人特征的相似度,所以度量学习方面的研究是学习一个合适的度量,使得同一行人不同图像的距离小于不同人图像的距离。
如今,深度学习在诸多计算机视觉任务中取得了出色的结果,其中卷积神经网络在当前最大型的图像识别数据库ImageNet上达到了最优水平。由于在计算机视觉中,不同领域图像的底层卷积特征具有通用性,将在ImageNet等大型数据库预先训练好的基础网络在其他领域数据库上进行微调训练,以作为新数据的特征提取器,这种方法称为迁移学习中的微调方法。神经网络的迁移学习解决两方面问题,一是数据量少不足以训练出较好的神经网络,二是减少训练时间;
现有技术在特征提取方面一般使用两种方法,一是根据行人数据特点构建具有针对性的特征,如使用颜色统计特征,纹理特征,局部特征融合(ELF),局部极大值特征(LOMO)等,二是使用深度学习方法,通过神经网络学习行人的隐式特征,如Wu等人设计一个卷积网络结构称为“PersonNet”;Liu等人提出一个多尺度的三元组卷积结构;Wang等人设计出一个孪生卷积网络框架;Varior等人使用长短时记忆网络(LSTM)结合孪生网络等;但是手工设计特征复杂二深度学习由于数据量不足使得网络学习结果差。
发明内容
本发明的目的在于克服现有技术的缺点与不足,提供一种基于迁移学习和特征融合的行人重识别方法。
本发明的目的通过以下的技术方案实现:
一种基于迁移学习和特征融合的行人重识别方法,其特征在于,包含以下步骤:
S1、从公开数据集中获取行人数据;
S2、搭建神经网络ResNet,在数据集ImageNet上进行初步训练,得到初次训练的网络集合,并进行保存;
S3、将初步训练得到的网络集合,在数据集MARS上进行微调,即微调网络,使用行人重识别数据作为网络输入,移除神经网络ResNet最后一层,加入一层softmax分类层,将输出层前一层的结果作为三元组损失的输出,即进行第二次训练,得到第二次训练的网络集合;具体为:
将表示为第i个样本,由三个部分组成,Ii为选定行人图片,为正例,为负例;F为卷积网络,则有三元组损失函数:
将正例与选定图片间的距离定义为:
将负例与选定图片间的距离定义为:
通过三元组损失函数与交叉熵损失函数,组合为联合函数,给神经网络约束,使得学习一个相同行人的图片具有相似输出,不同行人具有不相似输出:
联合函数为:
其中,T(Ii,yi)为交叉熵损失函数,Ii为第i张图片,yi为第i张图片的类别标记;类别为行人身份标识,每个行人有多张图片,即多张图片的类别为同一个,在三元组损失中,正例负例分别为相同行人类别和不同行人类别。
S4、进行特征提取,提取卷积网络特征和提取手工特征,具体过程为:
首先输入行人图片,提取卷积网络特征FCNN(Ii),即CNN特征;手工特征方面,采取表达像素特征的层级分布描述子GOG,定义为Fhand(Ii),即GOG手工特征;将卷积网络特征FCNN(Ii)和手工特征Fhand(Ii)进行拼接,得到高-低特征Fjoint,表示为:
Fjoint=[FCNN(Ii),Fhand(Ii)],
S5、利用交叉视角的二次判别方法XQDA,对高-低特征Fjoint进行度量学习;具体为:
将数据集分为测试集与训练集,使用步骤S4中提取高-低级特征的方法提取训练集高-低级特征,在XQDA上进行训练,学习出行人的样本间距离;
对测试集提取高-低级特征,得到测试集高-低级特征,输入测试集高-低级特征进行验证,输出行人的样本间距离,根据行人的样本间距离评估样本相似度即行人相似度,其后和行人的真实类别进行对比验证;
XQDA算法具体为:
其中,Δ=x-z表示不同视角的样本x和样本z之间的差异,πI为组内差异,πE为组间差异,P(Δ|π)表示Δ符合π的高斯分布;
进一步,引入子空间映射矩阵W,样本间距离d(x,z)为:
其中,表示组内协方差矩阵,表示组间协方差矩阵,W为子空间映射矩阵,ΔT为Δ转置;WT为W转置,将∑-1映射到子空间;
通过学习样本映射,得到行人在特征空间的不同样本距离,根据距离衡量是否为同类,获取重识别结果。
进一步地,步骤S1中,所述获取行人数据,具体过程为:行人数据集是从行人不同的角度进行拍摄,使用人工选取和自动化选取的方式,对行人图片进行裁剪,得到行人图片,组成数据集;
进一步地,步骤S1中,所述公开数据集包含:VIPeR、CUHK01、GRID、MARS,其中,使用MARS微调预训练的神经网络,使用VIPeR、CUHK01、GRID验证;
进一步地,所述神经网络ResNet,是一个加入残差机制的深度卷积神经网络,由两层以上卷积神经网络组成,构建过程为:采用PyTorch框架构建深度学习网络ResNet;
进一步地,所述初步训练,具体过程为:加载在数据集ImageNet上训练完成的公开ResNet参数;
进一步地,所述步骤S3中,还包括,在微调网络之后,将网络最后一层删除,输入数据后,网络输出一个特征向量,整个网络作为特征提取器在VIPeR、CUHK01和GRID三个数据集上进行验证;
进一步地,步骤S4中,所述特征获取过程为:采用GOG算法提取手工特征,并使用微调网络提取网络输出层前一层的结果作为卷积网络特征;
进一步地,步骤S5中,所述在XQDA上进行训练,具体为:将提取的手工特征和卷积网络特征进行拼接融合,再使用XQDA算法进行分类。
本发明与现有技术相比,具有如下优点和有益效果:
本发明采用交叉熵损失函数和三元组损失函数对整个网络加以更强的约束,再提取手工特征和卷积网络特征进行特征融合,形成高-低级特征,覆盖行人行动表达的不同层次,达到较好的识别效果,并以微调的形式减少训练时间;本发明结果优于多种单独提取手工特征或者卷积网络特征所取得的结果,并且迁移学习在实践过程中与其他神经网络方法相比,对于小数据集具有良好的泛化性和可移植性。
附图说明
图1是本发明所述一种基于迁移学习和特征融合的行人重识别方法流程框图;
图2是本发明所述一种基于迁移学习和特征融合的行人重识别方法的网络训练框架图。
具体实施方式
下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此。
实施例1
一种基于迁移学习和特征融合的行人重识别方法,其特征在于,包括以下步骤:
第一步:从公开数据集中获取行人数据;
本发明使用四个公开数据集,分别是VIPeR、CUHK01、GRID和MARS,这些行人数据集是由多个行人在现实情况下被不同角度的摄像机拍摄,然后使用人工选取或者自动化选取的方法,对行人部分进行裁剪得到行人图片片组成,每个行人类别包括多张图片,在实验过程中对验证的数据分成测试集和训练集两部分。其中我们使用MARS微调预训练的神经网络,使用VIPeR、CUHK01和GRID验证本发明的效果。
第二步:搭建神经网络ResNet,所述神经网络ResNet,是一个加入残差机制的深度卷积神经网络,由两层以上卷积神经网络组成,构建过程为:采用PyTorch框架构建深度学习网络ResNet;在数据集ImageNet上进行初步训练,具体过程为:加载在数据集ImageNet上训练完成的公开ResNet参数;得到初次训练的网络集合,并进行保存;
第三步:将初步训练得到的网络集合,在数据集MARS上进行微调,使用行人重识别数据作为网络输入,移除神经网络ResNet最后一层,加入一层softmax分类层,将输出层前一层的结果作为三元组损失的输出,即进行第二次训练,得到第二次训练的网络集合;
本发明使用预先在ImageNet数据集上训练的模型作为基础网络,即首先搭建一个神经网络,然后将ImageNet数据输入给网络进行训练,训练完成后,保存整个网络的参数,即得到一个完整的且训练完全的神经网络,这个网络已经具备良好的图片分类能力,但是针对特定的数据缺少更好的泛化性,因此需要在行人重识别数据集MARS上进行微调,即微调网络,即再次训练,第二次训练时,由于网络训练过一次,所以无需训练多次就可以达到较好的效果;
在微调过程中使用融合的损失函数,由于行人重识别和传统图片识别任务不同,单一的身份识别损失不足以给神经网络一个合适的约束使得其可以学习到符合重识别任务的特征,结合三元组损失和交叉熵损失构造一个新的组合损失函数,用来施以更强的约束;
微调具体为:
将表示为第i个样本,由三个部分组成,Ii为选定行人图片,为正例,为负例;F为卷积网络,则有三元组损失函数:
将正例与选定图片间的距离定义为:
将负例与选定图片间的距离定义为:
三元组损失的目的是使得距离更近,距离更远,即将同一行人的不同角度图片间的距离拉近,不同行人图片间的距离拉远;
交叉熵损失属于身份识别损失的一种,其目的是给神经网络约束使得学习一个相同行人的图片具有相似输出,而不同行人图片具有不相似输出的特征,使得学习一个相同行人的图片具有相似输出,不同行人具有不相似输出;通过三元组损失函数与交叉熵损失函数,组合为联合函数,给神经网络约束;
联合函数为:
其中,T(Ii,yi)为交叉熵损失函数,Ii为第i张图片,yi为第i张图片的类别标记;类别为行人身份标识,每个行人有多张图片,即多张图片的类别为同一个,在三元组损失中,正例负例分别为相同行人类别和不同行人类别;
在微调网络之后将网络最后一层删除,保留其他结构和参数,输入数据后网络输出一个特征向量,整个网络作为特征提取器在VIPeR、CUHK01和GRID三个数据集上进行验证;
第四步:进行特征提取,提取卷积网络特征和提取手工特征;在特征提取和融合阶段,分为两个步骤:
1.对数据集的图片提取两种特征,一种提取手工特征,一种是提取上一个阶段训练的提取的特征,即卷积网络特征。
2.对两种特征进行融合,结合不同特征的优势;
具体过程为:
首先输入行人图片,提取卷积网络特征FCNN(Ii),即CNN特征;手工特征方面,采取表达像素特征的层级分布描述子GOG,定义为Fhand(Ii),即GOG手工特征;将卷积网络特征FCNN(Ii)和手工特征Fhand(Ii)进行拼接,得到高-低特征Fjoint,表示为:
Fjoint=[FCNN(Ii),Fhand(Ii)],
第五步:利用交叉视角的二次判别方法XQDA,对高-低特征进行度量学习,对于需要在数据集中查找的行人,XDQA会对每个候选行人输出一个相似度,通过相似度,就可以得到最有可能是同一个行人的量化值;度量学习和验证过程可以分为两步:
1.使用训练集在XQDA上进行训练得到不同行人间的相似度映射空间.
2.验证时,输入行人数据,输出测试行人和候选行人间的相似度值,根据此值和测试行人的真实类别进行验证;
XQDA的主要思想是将一个行人看成两部分构成,一部分是人与人之间的差异,另一部分是个体自身的差异,并且假设两部分分别服从高斯分布,其后用高斯模型分别拟合类内和类间样本特征的差值分布,根据两个高斯分布的对数似然比推导出马氏距离。
具体为:
将数据集分为测试集与训练集,使用步骤S4中提取高-低级特征的方法提取训练集高-低级特征,在XQDA上进行训练,学习出行人的样本间距离;
对测试集提取高-低级特征,得到测试集高-低级特征,输入测试集高-低级特征进行验证,输出行人的样本间距离,根据行人的样本间距离评估样本相似度即行人相似度,其后和行人的真实类别进行对比验证;
XQDA算法具体为:
其中,Δ=x-z表示不同视角的样本x和样本z之间的差异,πI为组内差异,πE为组间差异,P(Δ|π)表示Δ符合π的高斯分布;
进一步,引入子空间映射矩阵W,样本间距离d(x,z)为:
其中,表示组内协方差矩阵,表示组间协方差矩阵,W为子空间映射矩阵,ΔT为Δ转置;WT为W转置,将∑-1映射到子空间;
通过学习样本映射,得到行人在特征空间的不同样本距离,根据距离衡量是否为同类,获取重识别结果。
在学习到样本映射后,可以得到行人在特征空间的映射,并且此映射符合同行人不同样本更近,不同行人间的样本更远的分布特点,当输入新的数据,映射到特征空间,再根据样本间的距离可以得到行人样本的相似度,依据相似度进行行人重识别排序,距离越近即相似度越大则为同一行人的概率就越大,在实际使用时会输出距离最近即最有可能是同一行人的结果。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。
Claims (8)
1.一种基于迁移学习和特征融合的行人重识别方法,其特征在于,包括以下步骤:
S1、从公开数据集中获取行人数据;
S2、搭建神经网络ResNet,在数据集ImageNet上进行初步训练,得到初次训练的网络集合,并进行保存;
S3、将初步训练得到的网络集合,在数据集MARS上进行微调,使用行人重识别数据作为网络输入,移除神经网络ResNet最后一层,加入一层softmax分类层,将输出层前一层的结果作为三元组损失的输出,即进行第二次训练,得到第二次训练的网络集合;具体为:
将表示为第i个样本,由三个部分组成,Ii为选定行人图片,为正例,为负例;F为卷积网络,则有三元组损失函数:
将正例与选定图片间的距离定义为:
将负例与选定图片间的距离定义为:
通过三元组损失函数与交叉熵损失函数,组合为联合函数,给神经网络约束,使得学习一个相同行人的图片具有相似输出,不同行人具有不相似输出:
联合函数为:
其中,T(Ii,yi)为交叉熵损失函数,Ii为第i张图片,yi为第i张图片的类别标记;
S4、进行特征提取,提取卷积网络特征和提取手工特征,具体过程为:
首先输入行人图片,提取卷积网络特征FCNN(Ii),即CNN特征;手工特征方面,采取表达像素特征的层级分布描述子GOG,定义为Fhand(Ii),即GOG手工特征;将卷积网络特征FCNN(Ii)和手工特征Fhand(Ii)进行拼接,得到高-低特征Fjoint,表示为:
Fjoint=[FCNN(Ii),Fhand(Ii)],
S5、利用交叉视角的二次判别方法XQDA,对高-低级特征Fjoint进行分类;具体为:
将数据集分为测试集与训练集,使用步骤S4中提取高-低级特征的方法提取训练集高-低级特征,在XQDA上进行训练,学习出行人的样本间距离;
对测试集提取高-低级特征,得到测试集高-低级特征,输入测试集高-低级特征进行验证,输出行人的样本间距离,根据行人的样本间距离评估样本相似度即行人相似度,其后和行人的真实类别进行对比验证;
XQDA具体为:
其中,Δ=x-z表示不同视角的样本x和样本z之间的差异,πI为组内差异,πE为组间差异,P(Δ|π)表示Δ符合π的高斯分布;
进一步,引入子空间映射矩阵W,样本间距离d(x,z)为:
其中,表示组内协方差矩阵,表示组间协方差矩阵,W为子空间映射矩阵,ΔT为Δ转置;WT为W转置,将∑-1映射到子空间;
通过学习样本映射,得到行人在特征空间的不同样本距离,根据距离衡量是否为同类,获取重识别结果。
2.根据权利要求1所述的一种基于迁移学习和特征融合的行人重识别方法,其特征在于,步骤S1中,所述获取行人数据,具体过程为:行人数据集是从行人不同的角度进行拍摄,并使用人工选取和自动化选取的方式,对行人图片进行裁剪,得到行人图片,组成数据集。
3.根据权利要求1所述的一种基于迁移学习和特征融合的行人重识别方法,其特征在于,步骤S1中,所述公开数据集包含:VIPeR、CUHK01、GRID、MARS,其中,使用MARS微调预训练的神经网络,使用VIPeR、CUHK01、GRID验证。
4.根据权利要求1所述的一种基于迁移学习和特征融合的行人重识别方法,其特征在于,步骤S2中,所述神经网络ResNet,是一个加入残差机制的深度卷积神经网络,由两层以上卷积神经网络组成,构建过程为:采用PyTorch框架构建深度学习网络ResNet。
5.根据权利要求1所述的一种基于迁移学习和特征融合的行人重识别方法,其特征在于,步骤S2中,所述初步训练,具体过程为:加载在数据集ImageNet上训练完成的公开ResNet参数。
6.根据权利要求1所述的一种基于迁移学习和特征融合的行人重识别方法,其特征在于,所述步骤S3中,还包括,在微调网络之后,将网络最后一层删除,输入数据后,网络输出一个特征向量,整个网络作为特征提取器在VIPeR、CUHK01和GRID三个数据集上进行验证。
7.根据权利要求1所述的一种基于迁移学习和特征融合的行人重识别方法,其特征在于,步骤S4中,所述特征获取过程为:采用GOG算法提取手工特征,并使用微调网络提取网络输出层前一层的结果作为卷积网络特征。
8.根据权利要求1所述的一种基于迁移学习和特征融合的行人重识别方法,其特征在于,步骤S5中,所述在XQDA上进行训练,具体为:将提取的手工特征和卷积网络特征进行拼接融合,再使用XQDA进行分类。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811097958.1A CN109446898B (zh) | 2018-09-20 | 2018-09-20 | 一种基于迁移学习和特征融合的行人重识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811097958.1A CN109446898B (zh) | 2018-09-20 | 2018-09-20 | 一种基于迁移学习和特征融合的行人重识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109446898A true CN109446898A (zh) | 2019-03-08 |
CN109446898B CN109446898B (zh) | 2021-10-15 |
Family
ID=65530650
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811097958.1A Expired - Fee Related CN109446898B (zh) | 2018-09-20 | 2018-09-20 | 一种基于迁移学习和特征融合的行人重识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109446898B (zh) |
Cited By (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109993070A (zh) * | 2019-03-13 | 2019-07-09 | 华南理工大学 | 一种基于全局距离尺度损失函数的行人再识别方法 |
CN110008842A (zh) * | 2019-03-09 | 2019-07-12 | 同济大学 | 一种基于深度多损失融合模型的行人重识别方法 |
CN110032940A (zh) * | 2019-03-13 | 2019-07-19 | 华中科技大学 | 一种视频行人重识别的方法和系统 |
CN110059734A (zh) * | 2019-04-02 | 2019-07-26 | 唯思科技(北京)有限公司 | 一种目标识别分类模型的训练方法、物体识别方法、装置、机器人和介质 |
CN110163110A (zh) * | 2019-04-23 | 2019-08-23 | 中电科大数据研究院有限公司 | 一种基于迁移学习和深度特征融合的行人重识别方法 |
CN110222217A (zh) * | 2019-04-18 | 2019-09-10 | 北京邮电大学 | 一种基于分段加权的鞋印图像检索方法 |
CN110321801A (zh) * | 2019-06-10 | 2019-10-11 | 浙江大学 | 一种基于自编码网络的换衣行人重识别方法及系统 |
CN110399828A (zh) * | 2019-07-23 | 2019-11-01 | 吉林大学 | 一种基于多角度的深度卷积神经网络的车辆再识别方法 |
CN110427814A (zh) * | 2019-06-24 | 2019-11-08 | 深圳云天励飞技术有限公司 | 一种骑行者重识别方法、装置及设备 |
CN110516533A (zh) * | 2019-07-11 | 2019-11-29 | 同济大学 | 一种基于深度度量的行人再辨识方法 |
CN110688888A (zh) * | 2019-08-02 | 2020-01-14 | 浙江省北大信息技术高等研究院 | 一种基于深度学习的行人属性识别方法和系统 |
CN110728238A (zh) * | 2019-10-12 | 2020-01-24 | 安徽工程大学 | 一种融合型神经网络的人员再检测方法 |
CN110796026A (zh) * | 2019-10-10 | 2020-02-14 | 湖北工业大学 | 一种基于全局特征拼接的行人重识别方法 |
CN111144233A (zh) * | 2019-12-10 | 2020-05-12 | 电子科技大学 | 基于toim损失函数的行人重识别方法 |
CN111444758A (zh) * | 2019-12-26 | 2020-07-24 | 珠海大横琴科技发展有限公司 | 一种基于时空信息的行人重识别方法及装置 |
CN111610768A (zh) * | 2020-06-10 | 2020-09-01 | 中国矿业大学 | 基于相似度多源域迁移学习策略的间歇过程质量预测方法 |
CN111738039A (zh) * | 2019-05-10 | 2020-10-02 | 北京京东尚科信息技术有限公司 | 一种行人重识别方法、终端及存储介质 |
CN111797700A (zh) * | 2020-06-10 | 2020-10-20 | 南昌大学 | 一种基于细粒度判别网络与二阶重排序的车辆重识别方法 |
CN111950372A (zh) * | 2020-07-13 | 2020-11-17 | 南京航空航天大学 | 一种基于图卷积网络的无监督行人重识别方法 |
CN112766351A (zh) * | 2021-01-12 | 2021-05-07 | 云南电网有限责任公司电力科学研究院 | 一种图像质量的评估方法、系统、计算机设备和存储介质 |
CN112836714A (zh) * | 2019-11-22 | 2021-05-25 | 杭州海康威视数字技术股份有限公司 | 一种智能模型的训练方法及装置 |
CN112906614A (zh) * | 2021-03-08 | 2021-06-04 | 中南大学 | 基于注意力指导的行人重识别方法、装置及存储介质 |
CN112949406A (zh) * | 2021-02-02 | 2021-06-11 | 西北农林科技大学 | 一种基于深度学习算法的羊只个体身份识别方法 |
CN113297906A (zh) * | 2021-04-20 | 2021-08-24 | 之江实验室 | 一种基于知识蒸馏的行人重识别模型压缩方法及评价方法 |
CN113505751A (zh) * | 2021-07-29 | 2021-10-15 | 同济大学 | 一种基于差异图卷积神经网络的人体骨骼动作识别方法 |
CN113963150A (zh) * | 2021-11-16 | 2022-01-21 | 北京中电兴发科技有限公司 | 一种基于多尺度孪生级联网络的行人重识别方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105095870A (zh) * | 2015-07-27 | 2015-11-25 | 中国计量学院 | 基于迁移学习的行人重识别方法 |
CN107832672A (zh) * | 2017-10-12 | 2018-03-23 | 北京航空航天大学 | 一种利用姿态信息设计多损失函数的行人重识别方法 |
CN107832711A (zh) * | 2017-11-13 | 2018-03-23 | 常州大学 | 一种基于迁移学习的行人重识别方法 |
-
2018
- 2018-09-20 CN CN201811097958.1A patent/CN109446898B/zh not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105095870A (zh) * | 2015-07-27 | 2015-11-25 | 中国计量学院 | 基于迁移学习的行人重识别方法 |
CN107832672A (zh) * | 2017-10-12 | 2018-03-23 | 北京航空航天大学 | 一种利用姿态信息设计多损失函数的行人重识别方法 |
CN107832711A (zh) * | 2017-11-13 | 2018-03-23 | 常州大学 | 一种基于迁移学习的行人重识别方法 |
Cited By (40)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110008842A (zh) * | 2019-03-09 | 2019-07-12 | 同济大学 | 一种基于深度多损失融合模型的行人重识别方法 |
CN109993070A (zh) * | 2019-03-13 | 2019-07-09 | 华南理工大学 | 一种基于全局距离尺度损失函数的行人再识别方法 |
CN110032940A (zh) * | 2019-03-13 | 2019-07-19 | 华中科技大学 | 一种视频行人重识别的方法和系统 |
CN110032940B (zh) * | 2019-03-13 | 2020-11-24 | 华中科技大学 | 一种视频行人重识别的方法和系统 |
CN109993070B (zh) * | 2019-03-13 | 2021-06-08 | 华南理工大学 | 一种基于全局距离尺度损失函数的行人再识别方法 |
CN110059734A (zh) * | 2019-04-02 | 2019-07-26 | 唯思科技(北京)有限公司 | 一种目标识别分类模型的训练方法、物体识别方法、装置、机器人和介质 |
CN110059734B (zh) * | 2019-04-02 | 2021-10-26 | 唯思科技(北京)有限公司 | 一种目标识别分类模型的训练方法、物体识别方法、装置、机器人和介质 |
CN110222217A (zh) * | 2019-04-18 | 2019-09-10 | 北京邮电大学 | 一种基于分段加权的鞋印图像检索方法 |
CN110222217B (zh) * | 2019-04-18 | 2021-03-09 | 北京邮电大学 | 一种基于分段加权的鞋印图像检索方法 |
CN110163110B (zh) * | 2019-04-23 | 2023-06-06 | 中电科大数据研究院有限公司 | 一种基于迁移学习和深度特征融合的行人重识别方法 |
CN110163110A (zh) * | 2019-04-23 | 2019-08-23 | 中电科大数据研究院有限公司 | 一种基于迁移学习和深度特征融合的行人重识别方法 |
CN111738039B (zh) * | 2019-05-10 | 2024-05-24 | 北京京东尚科信息技术有限公司 | 一种行人重识别方法、终端及存储介质 |
CN111738039A (zh) * | 2019-05-10 | 2020-10-02 | 北京京东尚科信息技术有限公司 | 一种行人重识别方法、终端及存储介质 |
CN110321801A (zh) * | 2019-06-10 | 2019-10-11 | 浙江大学 | 一种基于自编码网络的换衣行人重识别方法及系统 |
CN110321801B (zh) * | 2019-06-10 | 2021-08-03 | 浙江大学 | 一种基于自编码网络的换衣行人重识别方法及系统 |
CN110427814A (zh) * | 2019-06-24 | 2019-11-08 | 深圳云天励飞技术有限公司 | 一种骑行者重识别方法、装置及设备 |
WO2020258714A1 (zh) * | 2019-06-24 | 2020-12-30 | 深圳云天励飞技术有限公司 | 一种骑行者重识别方法、装置及设备 |
CN110516533A (zh) * | 2019-07-11 | 2019-11-29 | 同济大学 | 一种基于深度度量的行人再辨识方法 |
CN110399828A (zh) * | 2019-07-23 | 2019-11-01 | 吉林大学 | 一种基于多角度的深度卷积神经网络的车辆再识别方法 |
CN110399828B (zh) * | 2019-07-23 | 2022-10-28 | 吉林大学 | 一种基于多角度的深度卷积神经网络的车辆再识别方法 |
CN110688888A (zh) * | 2019-08-02 | 2020-01-14 | 浙江省北大信息技术高等研究院 | 一种基于深度学习的行人属性识别方法和系统 |
CN110688888B (zh) * | 2019-08-02 | 2022-08-05 | 杭州未名信科科技有限公司 | 一种基于深度学习的行人属性识别方法和系统 |
CN110796026A (zh) * | 2019-10-10 | 2020-02-14 | 湖北工业大学 | 一种基于全局特征拼接的行人重识别方法 |
CN110728238A (zh) * | 2019-10-12 | 2020-01-24 | 安徽工程大学 | 一种融合型神经网络的人员再检测方法 |
CN112836714A (zh) * | 2019-11-22 | 2021-05-25 | 杭州海康威视数字技术股份有限公司 | 一种智能模型的训练方法及装置 |
CN112836714B (zh) * | 2019-11-22 | 2024-05-10 | 杭州海康威视数字技术股份有限公司 | 一种智能模型的训练方法及装置 |
CN111144233A (zh) * | 2019-12-10 | 2020-05-12 | 电子科技大学 | 基于toim损失函数的行人重识别方法 |
CN111144233B (zh) * | 2019-12-10 | 2022-06-14 | 电子科技大学 | 基于toim损失函数的行人重识别方法 |
CN111444758A (zh) * | 2019-12-26 | 2020-07-24 | 珠海大横琴科技发展有限公司 | 一种基于时空信息的行人重识别方法及装置 |
CN111797700A (zh) * | 2020-06-10 | 2020-10-20 | 南昌大学 | 一种基于细粒度判别网络与二阶重排序的车辆重识别方法 |
CN111610768A (zh) * | 2020-06-10 | 2020-09-01 | 中国矿业大学 | 基于相似度多源域迁移学习策略的间歇过程质量预测方法 |
CN111610768B (zh) * | 2020-06-10 | 2021-03-19 | 中国矿业大学 | 基于相似度多源域迁移学习策略的间歇过程质量预测方法 |
CN111950372A (zh) * | 2020-07-13 | 2020-11-17 | 南京航空航天大学 | 一种基于图卷积网络的无监督行人重识别方法 |
CN112766351A (zh) * | 2021-01-12 | 2021-05-07 | 云南电网有限责任公司电力科学研究院 | 一种图像质量的评估方法、系统、计算机设备和存储介质 |
CN112949406A (zh) * | 2021-02-02 | 2021-06-11 | 西北农林科技大学 | 一种基于深度学习算法的羊只个体身份识别方法 |
CN112906614A (zh) * | 2021-03-08 | 2021-06-04 | 中南大学 | 基于注意力指导的行人重识别方法、装置及存储介质 |
CN113297906A (zh) * | 2021-04-20 | 2021-08-24 | 之江实验室 | 一种基于知识蒸馏的行人重识别模型压缩方法及评价方法 |
CN113505751A (zh) * | 2021-07-29 | 2021-10-15 | 同济大学 | 一种基于差异图卷积神经网络的人体骨骼动作识别方法 |
CN113963150B (zh) * | 2021-11-16 | 2022-04-08 | 北京中电兴发科技有限公司 | 一种基于多尺度孪生级联网络的行人重识别方法 |
CN113963150A (zh) * | 2021-11-16 | 2022-01-21 | 北京中电兴发科技有限公司 | 一种基于多尺度孪生级联网络的行人重识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN109446898B (zh) | 2021-10-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109446898A (zh) | 一种基于迁移学习和特征融合的行人重识别方法 | |
CN108629338B (zh) | 一种基于lbp和卷积神经网络的人脸美丽预测方法 | |
CN111026842A (zh) | 自然语言处理方法、自然语言处理装置及智能问答系统 | |
CN104361363B (zh) | 深度反卷积特征学习网络、生成方法及图像分类方法 | |
CN112507901B (zh) | 一种基于伪标签自纠正的无监督行人重识别方法 | |
CN102314614B (zh) | 一种基于类共享多核学习的图像语义分类方法 | |
CN109740413A (zh) | 行人重识别方法、装置、计算机设备及计算机存储介质 | |
CN109886072B (zh) | 基于双向Ladder结构的人脸属性分类系统 | |
CN108596329A (zh) | 基于端到端深度集成学习网络的三维模型分类方法 | |
CN111259804B (zh) | 一种基于图卷积的多模态融合手语识别系统及方法 | |
CN106909905A (zh) | 一种基于深度学习的多模态人脸识别方法 | |
CN106203363A (zh) | 人体骨架运动序列行为识别方法 | |
CN106778921A (zh) | 基于深度学习编码模型的人员再识别方法 | |
CN108960184A (zh) | 一种基于异构部件深度神经网络的行人再识别方法 | |
CN109993072A (zh) | 基于超分辨图像生成的低分辨率行人重识别系统和方法 | |
CN110097029B (zh) | 基于Highway网络多视角步态识别的身份认证方法 | |
CN110321862B (zh) | 一种基于紧致三元损失的行人再识别方法 | |
KR102593835B1 (ko) | 휴리스틱 가우스 클라우드 변환에 기반하는 얼굴인식 기술 | |
CN106897669A (zh) | 一种基于一致迭代多视角迁移学习的行人再辨识方法 | |
Ocquaye et al. | Dual exclusive attentive transfer for unsupervised deep convolutional domain adaptation in speech emotion recognition | |
CN112070010B (zh) | 一种联合多损失动态训练策略增强局部特征学习的行人重识别方法 | |
CN116363712B (zh) | 一种基于模态信息度评估策略的掌纹掌静脉识别方法 | |
CN109784288A (zh) | 一种基于判别感知融合的行人再识别方法 | |
CN110210550A (zh) | 基于集成学习策略的图像细粒度识别方法 | |
CN114299542A (zh) | 一种基于多尺度特征融合的视频行人重识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20211015 |