CN110443174B - 一种基于解耦自适应判别性特征学习的行人重识别方法 - Google Patents

一种基于解耦自适应判别性特征学习的行人重识别方法 Download PDF

Info

Publication number
CN110443174B
CN110443174B CN201910683172.6A CN201910683172A CN110443174B CN 110443174 B CN110443174 B CN 110443174B CN 201910683172 A CN201910683172 A CN 201910683172A CN 110443174 B CN110443174 B CN 110443174B
Authority
CN
China
Prior art keywords
pedestrian
picture
feature
training
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910683172.6A
Other languages
English (en)
Other versions
CN110443174A (zh
Inventor
魏振勇
魏龙
蔡登�
金仲明
黄建强
华先胜
何晓飞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN201910683172.6A priority Critical patent/CN110443174B/zh
Publication of CN110443174A publication Critical patent/CN110443174A/zh
Application granted granted Critical
Publication of CN110443174B publication Critical patent/CN110443174B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于解耦自适应判别性特征学习的行人重识别方法,包括:(1)选取已有的行人重识别模型,将模型分为特征抽取层和分类器层;(2)在训练阶段,每训练完N遍数据后对分类器层的参数进行随机初始化,特征抽取层的学习率随数据的迭代不断降低,分类器层的学习率保持不变;训练直到目标函数收敛;(3)在测试阶段,只保留特征抽取层,作为训练好的网络模型;(4)在行人检索阶段,用训练好的网络模型抽取图片库中每张图片的特征向量,将待查询行人图片特征向量和图片库中每张图片特征向量进行相似度排序并选择排序最靠前的图片的身份作为最终识别结果。利用本发明,可以很好地解决了现在行人特征学习网络优化不充分的问题。

Description

一种基于解耦自适应判别性特征学习的行人重识别方法
技术领域
本发明属于计算机视觉和模式分类领域,尤其是涉及一种基于解耦自适应判别性特征学习的行人重识别方法。
背景技术
近年来,随着公众场合大量监控摄像头的出现,行人重识别技术受到越来越多的关注。行人重识别技术的目标是进行跨摄像头行人查找,即给定某个摄像头拍摄到的一张行人图片,从其他摄像头中查找和这张图片属于同一身份的图片。行人重识别在遗失人员查找、嫌犯追踪等方面有着广泛应用。近年来,行人重识别技术发展迅速,但是在实际场景中仍然面临诸多挑战,包括:不同摄像头下光照变化、人的姿态变化、相互遮挡以及杂乱背景干扰等。
行人重识别技术分为两个阶段:第一个阶段是抽取判别性行人特征,第二个阶段是利用抽取到的特征向量在图片库里进行最近邻检索,其中行人特征的抽取质量对行人重识别的准确度有着决定性影响。近年来,深度学习技术的快速发展为行人重识别技术带来了巨大的机遇。目前主流的图片分类网络已经可以在行人重识别任务上取得不错的结果,例如Kaiming He等人在2016年CVPR会议上发表的论文《Deep Residual Learning forImage Recognition》中提出的ResNet,以及Gao Huang等人在2017年CVPR会议上发表的论文《Densely Connected Convolutional Networks》中提出的DenseNet等。借助于这些基础网络,很多行人特征抽取网络涌现出来。
传统的特征学习采用手工制作的特征,自从深度神经网络方法在图像识别方面取得较大的成功之后,很多行人重识别方法也采用了深度神经网络。大多数行人重识别可以分为以下两类。第一类是验证模型,验证模型侧重于度量学习,这类模型让相同标签的图片产生距离相近的特征。第二类是识别模型,识别模型需要把行人重识别任务看做一个分类任务,每张图片的标签当做监督信息。这类模型通常采用以下方式:学习局部特征、融合多层特征以及学习对背景和姿态变化更具有鲁棒性的特征。大多数模型设计为一个类似金字塔或者多个分支结构,通过采用对抗的方式来学习到比较鲁棒的特征,来抵消背景和姿态变化所产的影响。这类方法都需要对已有的网络在结构上进行改进,以达到相应的特征学习效果。
除了设计新的网络结构,另外一个提升行人重识别技术的途径是提升已有网络结构的识别准确度,即在保持现有的行人特征提取网络结构不变的条件下,通过更好的训练和优化技术,将它们的性能提升到一个更好的水平。在本发明之前,已有的网络结构通常采用SGD或者Adam等通用的梯度下降方式进行优化,很少有针对行人重识别网络的专门优化技术。这使得现有行人特征学习网络的潜力没有得到充分挖掘,它们可能达到的最佳性能也是未知的。因此,本发明的技术从这一角度考虑,来提升现有行人重识别网络的效果。
发明内容
本发明提供了一种基于解耦自适应判别性特征学习的行人重识别方法,很好地解决了现在行人特征学习网络优化不充分的问题,在已有的模型结构基础上取得了比较传统网络优化方法好的效果。
一种基于解耦自适应判别性特征学习的行人重识别方法,包括:
(1)选取一个已有的行人重识别模型,将模型中抽取到特征向量之前的网络称为特征抽取层,之后的全连接层称为分类器层;
(2)在训练阶段,模型产生的分类损失函数为目标函数,每训练完N遍数据后对分类器层的参数进行随机初始化,特征抽取层的学习率随着数据的迭代不断降低,分类器层的学习率在整个训练阶段保持不变;使用随机梯度下降方法进行训练,直到目标函数收敛;
(3)在测试阶段,只保留特征抽取层,作为训练好的网络模型,并输入行人图片进行抽取特征向量测试;
(4)在行人检索阶段,利用训练好的网络模型抽取行人图片库中每张图片的特征向量,对于待查询行人图片,将其特征向量和图片库中每张图片特征向量进行相似度排序,选择排序最靠前的图片的身份作为最终识别结果。
本发明总体设计思路为解耦特征抽取层和分类器之前的自适应。该自适应会使得模型的训练效果过多的依赖分类器的性能,而行人重识别方法的鲁棒性主要取决于特征抽取层的效果,因此在训练的时候,固定分类器的学习率而且每一次训练都对分类器进行初始化,可以将分类器始终维持在一个较弱的水平,从而迫使特征抽取层抽取的特征更具有判别性。
步骤(1)中,所述的特征抽取层和分类器层是对网络的结构进行划分。首先选取一个网络作为优化对象,例如DenseNet161,这个网络包含4个依次顺接的卷积模块,这些卷积模块越靠后,抽取的语义信息越丰富。之后通过池化(pooling)和全连接(FC)层,得到一个低维向量,把该向量作为图片的特征表示。最后通过一个全连接层和softmax函数,输出一个长度和训练集中类的个数相同的分类概率向量,每个分类表示输入图片属于对应类的概率。
给定一个输入图片x,记其对应的行人身份(标签)为y,这是一个独热(1-hot)向量,即只在标签所对应的位置分量为1,其他分量都取零。将图片x输入到网络中,通过前向传播,网络会输出一个预测的概率分布po。分类器层是全连接层和softmax函数,其他的网络结构称作特征抽取层。
步骤(2)为模型的训练阶段。该步骤当中,本发明设计了一种新的训练方式,来解耦特征抽取层和分类器层的自适应,让分类器一直处于一种相对较弱的状态,迫使模型抽取更加具有判别性的特征。
所述目标函数为模型产生的预测分布po和标签y之间的分类损失函数,即二者之间的交叉熵损失,公式如下:
Lid=LCE(y,po)
其中,LCE表示交叉熵,两个长度相同的概率分布向量p和q之间的交叉熵记为LCE(p,q)=-∑pilogqi。这个分类损失函数代表模型在训练样本上的拟合程度。
特征抽取层侧重于抽取更具有判别的特征;分类器层侧重于对特征的分类,是辅助特征抽取层的抽取更具有判别性的特征。一个相对较弱的特征抽取层加上一个性能较强的分类器,也可以使得分类损失处于一个相对较低的值,但是行人重识别更加关注于特征抽取层的性能,因此需要对分类器的效果加以限制,迫使模型抽取更加具有判别性的特征,使得分类损失降到最小。
步骤(2)中,每训练完N遍数据后,都对分类器层的参数进行随机初始化,使得分类器的参数满足标准正态分布,N的数值根据数据量和总的训练次数来调整。
本发明在训练模型时,使用在ImageNet数据集上已经预训练过的网络参数作为初始化参数,比如选择DenseNet161的预训练模型,分类器层的学习率固定为0.2,特征抽取层的初始学习率设置为0.1,每训练十遍数据,学习率降到原来的十分之一,然后使用随机梯度下降(SGD)进行训练。通过多遍迭代得到最终的模型。
步骤(3)的测试阶段,将分类器层从网络中移除,只保留特征抽取层。对于一张行人图片,将其输入网络,特征抽取层的输出向量作为输入图片的特征向量。
步骤(4)中,首先对于行人图片库中的所有图片,将每张图片输入训练好的模型,按照步骤(3)所述,得到其特征向量。
选择待测试的一张图片来计算其特征向量和底库中图片的特征之间的距离,本发明使用欧式距离作为特征向量之间的相似性度量,如果欧氏距离越小,说明两张图片之间的相似度越高,然后根据欧式距离对其他图片进行排序,选取相似度最高的前K(一般选取50)张图片作为检索的返回结果。最后,由这K个返回图片的标签根据一定规则得到输入图片的标签。
与现有技术相比,本发明具有以下有益效果:
1、本发明方法不依赖于任何具体的网络结构,可以适用于任何行人重识别模型。
2、本发明方法非常简单实用,只需要对SGD优化器进行非常小的改动。
3、本发明的方法非常有效,在训练耗时和内存占用方面几乎没有额外的消耗。
附图说明
图1为本发明一种基于解耦自适应判别性特征学习的行人重识别方法的流程示意图;
图2为本发明的训练方法和传统训练方法的流程对比图,其中,左侧为本发明方法DeAda,右侧为传统训练方法SGD;
图3为训练阶段本发明方法(DeAda)与传统训练方法(SGD)的训练损失对比图;
图4为训练阶段本发明方法(DeAda)与传统训练方法(SGD)的网络参数梯度对比图。
具体实施方式
下面结合附图和实施例对本发明做进一步详细描述,需要指出的是,以下所述实施例旨在便于对本发明的理解,而对其不起任何限定作用。
如图1所示,一种基于解耦自适应判别性特征学习的行人重识别方法,包括以下步骤:
S01,选取一个已有的行人重识别模型,将模型中抽取到特征向量之前的网络称为特征抽取层,之后的全连接层称为分类器层。
本实施例以DenseNet161网络为例来说明各个模块。输入:一张行人照片,输入尺寸为256(高)*128(宽)。
考虑到模型初始化的重要性,本实施例采用ImageNet数据集预训练的DenseNet161,DenseNet161里面包含4个模块(每个模块包含一个Dense Block和一个Transition Layer),每个Block里面包含若干个的基本单元,每个基本单元包含BatchNormalization、ReLU、Conv。DenseNet161的4个Dense Block分别包含的卷积单元个数依次为6、12、36、24。在最后一个Dense Block之后,通过pooling、ReLU、全连接层输出特征向量(判别性特征),然后再通过一个分类器(全连接)输出模型的预测分布po,最后用交叉熵损失函数求出模型的Loss。
分类器层就是最后的全连接层,其他的网络结构称为特征抽取层。
S02,在训练阶段,模型产生的分类损失函数为目标函数,每训练完N遍数据后对分类器层的参数进行随机初始化,特征抽取层的学习率随着数据的迭代不断降低,分类器层的学习率在整个训练阶段保持不变;使用随机梯度下降方法进行训练,直到目标函数收敛。
本发明的方法在训练阶段的具体流程与传统训练方法的对比如图2所示。
每训练完N遍数据后,都对分类器层的参数进行随机初始化,使得分类器的参数满足标准正态分布。N可以根据数据量和总的训练次数来调整。
特征抽取层的学习率随着数据的迭代不断地降低,比如学习率初始值设为0.1,过10个epoch降为原来的0.1;分类器层的学习率在训练阶段固定为0.2。
S03,在测试阶段,只保留特征抽取层,作为训练好的网络模型,并输入行人图片进行抽取特征向量测试;
S04,在行人检索阶段,利用训练好的网络模型抽取行人图片库中每张图片的特征向量,对于待查询行人图片,将其特征向量和图片库中每张图片特征向量进行相似度排序,选择排序最靠前的图片的身份作为最终识别结果。
在以ResNet为基础模型上,应用本发明的优化方法,做法和上述DenseNet161的做法完全一致。
除了以上两种基础网络,我们在其他网络上也取得了不错的效果,比如在一种复杂的基于人体部位的多分支网络MGN上应用本发明的做法。MGN是目前在公开数据集上行人重识别效果最好的网络。
我们利用深度神经网络训练时的损失曲线和网络参数的梯度曲线,来进一步展示解耦自适应的作用原理。
采用DenseNet161模型在Market1501数据集上进行训练,展示的梯度为Densebolck2所有参数的平均梯度范数(其它层的中的参数具有相似的行为)。图3和图4表示本发明的训练方法与传统SGD训练方法在梯度和训练损失之间的比较。由于有共适应的影响,传统SGD训练方法的训练损失迅速达到最小,同时梯度在SGD训练早期几乎消失,这阻止了特征提取器进一步更新。相反,在本发明的训练方法中,解耦了自适应并推迟训练的融合,通过每个epoch开始时,对分类器层进行随机初始化,重新激活梯度,使特征抽取层保持有效的优化知道训练结束,使其抽取的特征更具有判别性。
在以DenseNet或者ResNet为基础模型来使用本发明方法的情况下,实验设置如下:把输入图片的尺寸固定到256*128,特征向量设置为512维。优化器为带有动量(momentum)的SGD,动量为0.9。权重衰减率(weight decay)设置为5e-4。特征抽取层初始的学习率(learning rate)为0.1,之后每经过10遍(epoches)训练,学习率衰减为之前的1/10,分类器层的学习率固定为0.2。每个批次(batch)包含48张图片,模型总共训练50遍。我们使用欧式距离作为特征向量之间的相似性度量。
在MGN网络模型上,使用本发明的方法,其实验设置如下:因为MGN网络中使用了triplet损失函数,所以在训练过程的每个批次(batch)数据中,都对行人的身份进行采样。每个批次从训练数据集中采样4个id,每人4张照片。MGN网络的输入图片的尺寸设置为384*128。特征抽取层初始的学习率置为2e-4,分类器层的学习率固定为2e-4。模型总共训练500遍,在第320遍和第380遍的时候,学习率分别衰减为之前的1/10。因为MGN使用了triplet损失函数,对训练样本有采样,每一遍训练并不是所有的数据都能被采样到。所以我们采用每训练50遍对分类器随机初始化一次。
为验证本发明方法的有效性,本发明在三个主流的行人重识别数据集上进行了实验,这三个数据集介绍分别如下:
Market1501:该数据集一共32,668张图片,包含1,501个行人,其中751个行人的12,936张照片用于训练,另外750个人的19,732张照片用于测试,来自于大学校园里的6个摄像头采集。
DukeMTMC-reID:该数据包含36,411张图片,其中702个人的照片用于训练,另外702个人的照片用于测试,来自于8个室外摄像头。
CUHK03:该数据包含1,467个行人的14,097张图片。CUHK03包含两种标注形式,人为标注(labeled)和自动检测标注(detected)。CUHK03存在两种测试协议,我们采用新版的测试协议。这三个数据集简介如表1所示。
表1
数据集 训练类别 训练图片 测试类别 测试图片
Market1501 751 12,936 750 19,732
DukeMTMC-reID 702 16,522 702 19,889
CUHK03(labeled) 767 7,368 700 6,728
评价指标:平均准确率(mAP)和累积匹配指标(CMC)。两个指标都是0到1之间的数字,数值越大代表行人重识别准确度越高。这里CMC指标我们只展示top-1准确率。表2、表3和表4中展示了以ResNet50、DenseNet161为基础网络,将本发明方法应用于这两个基础网络,在Market1501、DukeMTMC-reID和CUHK03(labeled)数据集上取得的实验结果。
表2
模型 平均准确度(%) Top-1准确度(%)
ResNet50 70.9 86.8
ResNet50+本发明方法 72.3(+1.4) 87.7(+0.9)
DenseNet161 75.6 89.8
DenseNet161+本发明方法 78.6(+3.0) 92.1(+2.3)
表3
模型 平均准确度(%) Top-1准确度(%)
ResNet50 62.6 79.6
ResNet50+本发明方法 63.5(+0.9) 80.5(+0.9)
DenseNet161 66.7 81.9
DenseNet161+本发明方法 68.7(+2.0) 84.1(+2.2)
表4
模型 平均准确度(%) Top-1准确度(%)
ResNet50 41.5 41.4
ResNet50+本发明方法 43.4(+1.9) 44.4(+3.0)
DenseNet161 45.5 45.7
DenseNet161+本发明方法 46.4(+0.9) 46.1(+0.4)
可以看到,在相同的训练集上,本发明方法能够将模型在测试集的平均准确度和Top-1准确度平均分别提升2.0%和2.0%以上,从而验证了本发明技术的有效性。小括号中以“+”开头的数值代表应用了本发明方法之后带来的准确度提升程度。
表5展示了将本发明的方法(DeAda)应用于MGN网络取得的行人重识别结果。MGN(published)表示MGN原始论文中的结果,MGN(reproduced)表示github上其他研究人员重现的代码。通过在数据集Market1501、DukeMTMC-reID和CUHK03上和已有方法的结果比较,在MGN(reproduced)上叠加本发明的方法,在三个数据集上取得了领先的行人重识别准确度。
表5
Figure BDA0002145461990000101
以上所述的实施例对本发明的技术方案和有益效果进行了详细说明,应理解的是以上所述仅为本发明的具体实施例,并不用于限制本发明,凡在本发明的原则范围内所做的任何修改、补充和等同替换,均应包含在本发明的保护范围之内。

Claims (6)

1.一种基于解耦自适应判别性特征学习的行人重识别方法,其特征在于,包括:
(1)选取一个已有的行人重识别模型,将模型中抽取到特征向量之前的网络称为特征抽取层,之后的全连接层称为分类器层;
(2)在训练阶段,模型产生的分类损失函数为目标函数,每训练完N遍数据后对分类器层的参数进行随机初始化,特征抽取层的学习率随着数据的迭代不断降低,分类器层的学习率在整个训练阶段保持不变;使用随机梯度下降方法进行训练,直到目标函数收敛;
(3)在测试阶段,只保留特征抽取层,作为训练好的网络模型,并输入行人图片进行抽取特征向量测试;
(4)在行人检索阶段,利用训练好的网络模型抽取行人图片库中每张图片的特征向量,对于待查询行人图片,将其特征向量和图片库中每张图片特征向量进行相似度排序,选择排序最靠前的图片的身份作为最终识别结果。
2.根据权利要求1所述的基于解耦自适应判别性特征学习的行人重识别方法,其特征在于,步骤(2)中,所述目标函数为模型产生的预测分布po和标签y之间的分类损失函数,即二者之间的交叉熵损失,公式如下:
Lid=LCE(y,po)
其中,LCE表示交叉熵,两个长度相同的概率分布向量p和q之间的交叉熵记为LCE(p,q)=-∑pilogqi
3.根据权利要求1所述的基于解耦自适应判别性特征学习的行人重识别方法,其特征在于,步骤(2)中,每训练完N遍数据后,都对分类器层的参数进行随机初始化,使得分类器的参数满足标准正态分布,N的数值根据数据量和总的训练次数来调整。
4.根据权利要求1所述的基于解耦自适应判别性特征学习的行人重识别方法,其特征在于,步骤(2)中,使用在ImageNet数据集上已经预训练过的网络参数作为初始化参数。
5.根据权利要求1所述的基于解耦自适应判别性特征学习的行人重识别方法,其特征在于,步骤(2)中,分类器层的学习率固定为0.2,特征抽取层的初始学习率设置为0.1,每训练十遍数据,学习率降到原来的十分之一。
6.根据权利要求1所述的基于解耦自适应判别性特征学习的行人重识别方法,其特征在于,步骤(4)中,进行相似度排序时,使用欧式距离作为特征向量之间的相似性度量。
CN201910683172.6A 2019-07-26 2019-07-26 一种基于解耦自适应判别性特征学习的行人重识别方法 Active CN110443174B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910683172.6A CN110443174B (zh) 2019-07-26 2019-07-26 一种基于解耦自适应判别性特征学习的行人重识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910683172.6A CN110443174B (zh) 2019-07-26 2019-07-26 一种基于解耦自适应判别性特征学习的行人重识别方法

Publications (2)

Publication Number Publication Date
CN110443174A CN110443174A (zh) 2019-11-12
CN110443174B true CN110443174B (zh) 2021-08-10

Family

ID=68431768

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910683172.6A Active CN110443174B (zh) 2019-07-26 2019-07-26 一种基于解耦自适应判别性特征学习的行人重识别方法

Country Status (1)

Country Link
CN (1) CN110443174B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112016661B (zh) * 2020-08-20 2022-05-06 浙江大学 一种基于擦除显著性区域的行人重识别方法
CN112307995B (zh) * 2020-11-05 2022-03-25 电子科技大学 一种基于特征解耦学习的半监督行人重识别方法
CN112613433B (zh) * 2020-12-28 2022-08-19 厦门市美亚柏科信息股份有限公司 一种行人重识别的生成数据的伪标签分配方法及系统
CN113326731B (zh) * 2021-04-22 2024-04-19 南京大学 一种基于动量网络指导的跨域行人重识别方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101818129B1 (ko) * 2017-04-25 2018-01-12 동국대학교 산학협력단 나선 신경망 기법을 이용한 보행자 인식 장치 및 방법
CN108921054A (zh) * 2018-06-15 2018-11-30 华中科技大学 一种基于语义分割的行人多属性识别方法
CN109101865A (zh) * 2018-05-31 2018-12-28 湖北工业大学 一种基于深度学习的行人重识别方法
WO2019010950A1 (zh) * 2017-07-13 2019-01-17 北京大学深圳研究生院 用于图像或视频中行人重识别的深度判别网络模型方法
CN109271870A (zh) * 2018-08-21 2019-01-25 平安科技(深圳)有限公司 行人重识别方法、装置、计算机设备及存储介质
CN109655259A (zh) * 2018-11-23 2019-04-19 华南理工大学 基于深度解耦卷积神经网络的复合故障诊断方法及装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106778464A (zh) * 2016-11-09 2017-05-31 深圳市深网视界科技有限公司 一种基于深度学习的行人重识别方法和装置
CN108229348B (zh) * 2017-12-21 2020-04-28 中国科学院自动化研究所 遮挡人脸图像的识别装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101818129B1 (ko) * 2017-04-25 2018-01-12 동국대학교 산학협력단 나선 신경망 기법을 이용한 보행자 인식 장치 및 방법
WO2019010950A1 (zh) * 2017-07-13 2019-01-17 北京大学深圳研究生院 用于图像或视频中行人重识别的深度判别网络模型方法
CN109101865A (zh) * 2018-05-31 2018-12-28 湖北工业大学 一种基于深度学习的行人重识别方法
CN108921054A (zh) * 2018-06-15 2018-11-30 华中科技大学 一种基于语义分割的行人多属性识别方法
CN109271870A (zh) * 2018-08-21 2019-01-25 平安科技(深圳)有限公司 行人重识别方法、装置、计算机设备及存储介质
CN109655259A (zh) * 2018-11-23 2019-04-19 华南理工大学 基于深度解耦卷积神经网络的复合故障诊断方法及装置

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Breaking Inter-Layer Co-Adaptation by Classifier Anonymization;Ikuro Sato et al.;《arXiv》;20190604;第1-9页 *
End-to-End Deep Learning for Person Search;Tong Xiao et al.;《Arxiv》;20170406;第1-10页 *
基于特征融合网络的行人重识别;种衍杰 等;《计算机系统应用》;20181226;第28卷(第1期);第127-133页 *

Also Published As

Publication number Publication date
CN110443174A (zh) 2019-11-12

Similar Documents

Publication Publication Date Title
CN111126360B (zh) 基于无监督联合多损失模型的跨域行人重识别方法
CN110443174B (zh) 一种基于解耦自适应判别性特征学习的行人重识别方法
Zheng et al. SIFT meets CNN: A decade survey of instance retrieval
Farfade et al. Multi-view face detection using deep convolutional neural networks
CN106372581B (zh) 构建及训练人脸识别特征提取网络的方法
CN105512680B (zh) 一种基于深度神经网络的多视sar图像目标识别方法
CN111709311B (zh) 一种基于多尺度卷积特征融合的行人重识别方法
Kagaya et al. Highly accurate food/non-food image classification based on a deep convolutional neural network
CN110163117B (zh) 一种基于自激励判别性特征学习的行人重识别方法
CN110348399B (zh) 基于原型学习机制和多维残差网络的高光谱智能分类方法
Prakash et al. Face recognition with convolutional neural network and transfer learning
CN109784197B (zh) 基于孔洞卷积与注意力学习机制的行人再识别方法
CN110598543B (zh) 基于属性挖掘和推理的模型训练方法及行人再识别方法
Ming et al. Simple triplet loss based on intra/inter-class metric learning for face verification
CN109190514B (zh) 基于双向长短期记忆网络的人脸属性识别方法及系统
Lee et al. Place recognition using straight lines for vision-based SLAM
CN108280421B (zh) 基于多特征深度运动图的人体行为识别方法
CN113688894B (zh) 一种融合多粒度特征的细粒度图像分类方法
Kobyshev et al. Matching features correctly through semantic understanding
CN115221864A (zh) 一种多模态假新闻检测方法及系统
Chen et al. Fast and reliable probabilistic face embeddings in the wild
CN114358205A (zh) 模型训练方法、模型训练装置、终端设备及存储介质
CN111985434B (zh) 模型增强的人脸识别方法、装置、设备及存储介质
Canévet et al. Large scale hard sample mining with monte carlo tree search
CN111242114B (zh) 文字识别方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant