CN107220611B - 一种基于深度神经网络的空时特征提取方法 - Google Patents

一种基于深度神经网络的空时特征提取方法 Download PDF

Info

Publication number
CN107220611B
CN107220611B CN201710370428.9A CN201710370428A CN107220611B CN 107220611 B CN107220611 B CN 107220611B CN 201710370428 A CN201710370428 A CN 201710370428A CN 107220611 B CN107220611 B CN 107220611B
Authority
CN
China
Prior art keywords
pedestrian
space
neural network
time
feature extraction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710370428.9A
Other languages
English (en)
Other versions
CN107220611A (zh
Inventor
杨华
陈琳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Jiaotong University
Original Assignee
Shanghai Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Jiaotong University filed Critical Shanghai Jiaotong University
Priority to CN201710370428.9A priority Critical patent/CN107220611B/zh
Publication of CN107220611A publication Critical patent/CN107220611A/zh
Application granted granted Critical
Publication of CN107220611B publication Critical patent/CN107220611B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • G06F18/2193Validation; Performance evaluation; Active pattern learning techniques based on specific statistical tests
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明公开一种基于深度神经网络的行人空时特征提取方法,步骤为:在一个深度网络中利用卷积神经网络(CNN)提取行人的空域特征,利用递归神经网络(RNN)综合提取出的空域特征从而得到行人的时域特征;在网络中设计叠加层融合CNN和RNN提取出的空域和时域特征,得到行人的空时特征表达;分别在行人的全局图片和局部图片进行网络训练得到相应的具有互补性质的全局特征和局部特征,加之进行融合,得到最终的特征表达。本发明具有很好的鲁棒性,能更好的解决与适应遮挡和光线变化等复杂情况;结合了行人的局部和全局特征,挖掘行人的细节特性,使其在下一步的行人识别中发挥更好的性能及效率。

Description

一种基于深度神经网络的空时特征提取方法
技术领域
本发明属于计算机视觉技术领域,具体为一种基于行人视频的空时特征提取方法,尤其是涉及一种适合于行人重识别中提升识别性能的空时特征提取方法。
背景技术
行人重识别是智能视频监控中的一项关键任务,是近年来计算机视觉领域中一直备受关注的研究热点,适用于安防以及公共场所寻人等技术领域。行人重识别可定义为:在无重叠的视频监控网络中,对于摄像头中给定的某个行人,判断其是否出现在其他摄像头中的过程。它是一种自动的目标识别技术,能在监控网络中快速定位到感兴趣的人体目标,是智能视频监控和人体行为分析等应用中的重要步骤。
特征提取作为行人重识别技术中的一项重要任务,是当中首先要解决的问题。从现有的技术文献检索发现,整体来讲有两种主要的研究思路。思路之一是利用传统的计算机是利用传统的计算机视觉的方法,通过复杂的数学推导和模型设计从而实现特定数据集的特征提取(参见I.Kviatkovsky,A.Adam,and E.Rivlin.Color invariants for personreidentification.IEEE Transactions on Pattern Analysis and MachineIntelligence,35(7):1622–1634,2013.1;R.Zhao,W.Ouyang,and X.Wang.Person re-identification by salience matching.In Proceedings of the IEEE InternationalConference on Computer Vision,pages 2528–2535,2013.1)但是,这类方法受光照变化,遮挡等的严重影响,性能并不好。另一方面,复杂的模型设计对不同的数据集并没有很好地适应性,从而严重影响了这类方法的普适性。思路二是利用深度学习的方法,设计网络自适应的学习行人的特征表达。这种方法近年来得到了很大的应用,尤其是用深度卷积网络(CNN)提取行人的空域特征(参见E.Ahmed,M.Jones,and T.K.Marks.An improved deeplearning architecture for person re-identification.In Proceedings of the IEEEConference on Computer Vision and Pattern Recognition,pages 3908–3916,2015.1,2)取得了比较好的效果。然而,这类方法在行人外貌特征变化很大时,提取出的空域特征并不够可靠,此时性能不够理想。这种方法忽略了更为可靠的行人姿态等时域特征。
发明内容
针对上述现有技术存在的问题,本发明提供一种基于深度神经网络的空时特征提取方法,该方法基于卷积神经网络(CNN)和递归神经网络的特性,采用行人空域特征和时域特征融合的深度空时特征提取网络;此外,基于局部特征和全局特征的互补性,提出了局部-全局特征融合的方法得到更具辨识度更有效的特征表达。
本发明是通过以下技术方案实现的:
本发明首先设计了一个网络,其中利用卷积神经网络(CNN)提取行人的空域特征,利用递归神经网络(RNN)综合提取出的空域特征从而得到行人的时域特征。在网络中设计叠加层融合CNN和RNN提取出的空域和时域特征,得到行人的空时特征表达;其次,本发明分别在行人的全局图片和局部图片进行网络训练得到相应的具有互补性质的全局空时特征和局部空时特征,加之进行融合,得到最终的特征表达。
这样,本发明同时考虑了行人的空域特征和更具代表性的时域特征,并在同一深度网络中加之进行了高效的融合,提取出的特征更具有区分度,更具有鲁棒性,能更好的解决与适应遮挡和光线变化等复杂情况;同时结合了行人的局部和全局特征,挖掘行人的细节特性,使其在下一步的行人识别中发挥更好的性能及效率。
具体地,所述的基于深度神经网络的空时特征提取方法,包括以下步骤:
第一步:设计一个三层卷积神经网络(CNN),每一层均包含一个卷积层,一个激活层,一个池化层;
第二步:对行人视频中的每一张图片s(t),均经过第一步中的卷积神经网络,得到特征输出即空域特征f(t);
第三步:对一个行人序列中的图片输出的空域特征f(t)进行平均,得到平均特征向量xc
第四步:利用递归神经网络(RNN)综合卷积神经网络(CNN)提取出的空域特征f(t),得到相应的时域特征o(t);
第五步:对一个行人序列中的所有图片进行第四步中的操作,得到相应的时域特征,对输出的时域特征o(t)进行平均,得到平均特征向量xR
第六步:将卷积神经网络提取出的平均行人空域特征xc和递归神经网络提取出的平均时域特征xR进行融合,得到行人的空时特征表达xF
第七步:将行人的空时特征表达xF送入对比损失函数(Siamese loss)和交叉熵损失(Softmax loss)函数中算出损失,从而对整个网络进行优化迭代,得到最终的特征提取模型;
第八步:将行人图像分为上下两部分,分别经过步骤一到步骤七所构成的网络的训练和特征提取步骤,利用最终训练出的特征提取模型提取出局部空时特征;训练行人的全局图片,利用特征提取模型提取出全局空时特征;将互补性的全局空时特征和局部空时特征融合,得到最终更具区分度的特征表达。
优选地,第一步中,所述三层卷积神经网络中,每一个卷积层卷积核大小均为5x5,激活层为双曲正切(Tanh)激活层,池化层为最大值池化(Max pooling)。
优选地,第三步中,所述对一个行人序列中的图片输出的空域特征f(t)进行平均,是通过时域池化(temporal pooling)层实现,得到维度为128的平均特征向量xc,具体公式为:
Figure BDA0001302642520000031
T为一个行人图片序列的长度。
优选地,第六步中,所述将卷积神经网络提取出的平均行人空域特征xc和递归神经网络提取出的平均时域特征xR进行融合,其中特征向量采用1:1的线性叠加,具体为:
xF=xC+xR
优选地,第七步中,所述用对比损失函数(Siamese loss)和交叉熵损失(Softmaxloss)对网络进行优化迭代,两种loss的权重比为1:1。
优选地,第八步中,所述将互补性的全局空时特征和局部空时特征融合,其中融合权重从训练集中学得最优参数。
与现有技术相比,本发明的有益效果在于:
1)本发明同时考虑并利用了行人的空域和时域特征,用以对行人进行描述,因此能得到更为鲁棒性和代表性的特征表达;
2)本发明将行人的空时特征提取整合在同一个深度网络中,降低了复杂度,同时保证了特征的一致性;
3)本发明提出了局部-全局特征融合方法,分别在行人的分部图片和全局图片中训练并提取特征,并进行局部-全局特征融合,从而得到更具有区分度的特征表达,进一步提升下一步的行人识别率。
附图说明
通过阅读参照以下附图对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1为本发明一实施例中网络结构的具体参数和组成方式示意图;
图2为本发明一实施例中整个方法的流程示意图;
图3为本发明一实施例中局部-全局特征融合示意图;
图4为本发明一实施例中提取出的特征做行人重识别的最终结果示意图。
具体实施方式
下面结合附图对本发明的实施例作详细说明:本实施例以本发明技术方案为前提进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述的实施例。
实施例
本实施采用的图像帧来自数据库PRID-2011和i-LIDS-VID中的群体监控视频(video for traffic surveillance)。该视频序列是由(Martin Hirzer,Csaba Beleznai,Peter M.Roth,and Horst Bischof.2011.Person Re-identification by Descriptiveand Discriminative Classification.Springer Berlin Heidelberg.91–102pages.)和(Wei Shi Zheng,Shaogang Gong,and Tao Xiang.2009.Associating Groups ofPeople.Active Range Imaging Dataset for Indoor Surveillance(2009))提供的,以进行行人重识别性能评估。
本实施例涉及的基于深度神经网络的空时特征提取方法,包括如下步骤:
第一步:构造卷积神经网络,实现对行人视频中空域特征提取。
本步骤中具体操作为:
1.设计一个三层的卷积神经网络,每一层均包含一个卷积层,一个激活层,一个池化层。本实施例中每一个卷积层卷积核大小均为5x5,激活层为双曲正切(Tanh)激活层,池化层为最大值池化(Max pooling)。
2.对行人视频中的每一张图片s(t),均经过1中的卷积神经网络,得到特征输出f(t):
f(t)=C(s(t)),
其中C代表经过卷积神经网络的操作。本实施例中,特征向量维度为128。
3.设计时域池化(temporal pooling)层,对一个行人序列中的图片输出的特征进行平均,得到平均特征向量xc
Figure BDA0001302642520000051
其中T为一个行人序列的长度。本实施例中T为16。
图1是步骤中所述网络结构的具体参数和组成方式示意图,其中卷积神经网络中卷积核个数分别为(16,32,32),卷积核大小均为5x5,步长均为1。行人序列是以成对的方式输入,经过同样的卷积池化等操作后提取出空域特征送入递归神经网络中进行下一步综合得到时域特征。
第二步:基于递归神经网络(RNN),提取行人的时域特征。
本步骤中具体操作为:
1.利用递归神经网络(RNN)综合卷积神经网络(CNN)提取出的空域特征f(t),得到相应的时域特征o(t),即:
o(t)=R(f(t)),
其中R代表经过递归神经网络的操作。
2.对一个行人序列中的所有图片进行1中的操作,得到相应的时域特征,对输出的特征连接时域池化(temporal pooling)层进行平均,得到平均特征向量xR
Figure BDA0001302642520000061
第三步:进行行人空时特征融合。
本步骤中具体操作为:
设计一个线性叠加层,将CNN提取出的平均行人空域特征xc和RNN提取出的平均时域特征xR进行融合,得到行人的空时特征表达xF
xF=xC+xR
在本实施例中,特征向量采用1:1的线性叠加。
第四步:将行人的空时特征表达xF送入对比损失函数(Siamese loss)和交叉熵损失(Softmax loss)函数中算出损失从而对整个网络进行优化迭代。
在本实施例中,两种损失的计算权重为1:1。
图2是整个网络结构运行的流程示意图。详细阐释了第一到第四步网络设计的具体过程和数据流向。本发明中的深度行人空时特征提取集成在同一个深度神经网络架构中,易于重现且具有很好地适用性和推广性。
第五步:将行人图像分为上下两部分,分别经过步骤一到步骤四所构成的网络的训练和特征提取步骤,利用最终训练出的特征提取模型提取出局部空时特征;训练行人的全局图片,利用特征提取模型提取出全局空时特征;将互补性的全局空时特征和局部空时特征融合,得到最终更具区分度的特征表达。
在本实施例中,全局特征和局部特征的融合权重从训练集中学得最优参数,根据不同的训练集自适应调整。
图3是局部-全局特征融合示意图。其中CRF代表步骤一到四中设计的行人空时特征提取网络。局部-全局特征融合示意图中具体阐明了分部的操作,其中的权重w由训练集学得并应用在测试集上。
综上所述,本发明方法步骤同时考虑了行人的空域特征和更具代表性的时域特征,并在同一深度网络中加之进行了高效的融合,提取出的特征更具有区分度,更具有鲁棒性,能更好的解决与适应遮挡和光线变化等复杂情况;结合了行人的局部和全局特征,挖掘行人的细节特性,使其在下一步的行人识别中发挥更好的性能及效率。
如图4所示,是基于本发明提取出的特征做行人重识别的最终结果示意图,以行人重识别中普遍应用的累积匹配特性(CMC)曲线作为表征。五条曲线从上至下依次代表的是本发明方法和其他方法在不同条件下的性能,作为参照系用以进行方法的比较;
第一条带圆圈的曲线代表本发明的方法得到的准确率结果;
第二条带五角星的曲线代表本发明参考的方法(参见:N.McLaughlin,J.Martinezdel Rincon,and P.Miller.Recurrent convolutional network for video-basedperson re-identification.In Proceedings of the IEEE Conference on ComputerVision and Pattern Recognition,2016.2,3,5,7),在同样的网络结构下只用RNN提取出的特征所得到的结果;
其他的曲线代表了运用不同网络提取出相对应的特征所得到的性能(参见:S.Karanam,Y.Li,and R.J.Radke.Sparse re-id:Block sparsity for person re-identification.In Proceedings of the IEEE Conference on Computer Vision andPattern Recognition Workshops,pages 33–40,2015.5,7;参见:T.Wang,S.Gong,X.Zhu,and S.Wang.Person re-identification by video ranking.In European Conferenceon Computer Vision,pages 688–703.Springer,2014.2,5,7)。
从图4中可以看出,本发明的方法较之前的方法能够更好地提取出更具有区分度的特征,并且在不同的数据集上都能得到很好地效果,识别的精度有了明显的提高。
以下表1,是基于本发明得到的性能的最终识别准确率的数值比较结果。从上至下依次陈列了用以对照的其他结果同本发明实施结果的数值比较。可以看到本发明精度在不同数据集上都有很好的效果提升。
表1
Figure BDA0001302642520000081
以下表2,是本发明的方法的中间结果性能比较,用以说明本发明的有效性。其中五行结果自上至下分别代表本发明的各个步骤所得到的特征用于识别的性能,分别为只选用CNN提取的特征,只选用RNN提取的特征,局部结果中的只选用上半部分行人图片所提取出的空时特征,只选用下半部分行人图片提取出的空时特征,以及最终的局部-全局空时特征融合结果比较。
表2
Figure BDA0001302642520000082
从表2中可以看出,本发明的方法提出的空时特征融合以及局部-全局特征融合的方法的确能带来性能上的提升,能够更好的挖掘行人的本质特征,给出更好的特征提取方案。
综上,本发明具有很好的鲁棒性,能更好的解决与适应遮挡和光线变化等复杂情况;结合了行人的局部和全局特征,挖掘行人的细节特性,使其在下一步的行人识别中发挥更好的性能及效率。
尽管本发明的内容已经通过上述优选实施例作了详细介绍,但应当认识到上述的描述不应被认为是对本发明的限制。在本领域技术人员阅读了上述内容后,对于本发明的多种修改和替代都将是显而易见的。因此,本发明的保护范围应由所附的权利要求来限定。

Claims (5)

1.一种基于深度神经网络的空时特征提取方法,其特征在于包括以下步骤:
第一步:设计一个三层卷积神经网络(CNN),每一层均包含一个卷积层,一个激活层,一个池化层;
第二步:对行人视频中的每一张图片s(t),均经过第一步中的卷积神经网络,得到特征输出即空域特征f(t);
第三步:对一个行人序列中的图片输出的空域特征f(t)进行平均,得到平均特征向量xc
第四步:利用递归神经网络(RNN)综合卷积神经网络(CNN)提取出的空域特征f(t),得到相应的时域特征o(t);
第五步:对一个行人序列中的所有图片进行第四步中的操作,得到相应的时域特征,对输出的时域特征o(t)进行平均,得到平均特征向量xR
第六步:将卷积神经网络提取出的平均行人空域特征xc和递归神经网络提取出的平均时域特征xR进行融合,得到行人的空时特征表达xF;其中特征向量采用1:1的线性叠加,具体为:
xF=xC+xR
第七步:将行人的空时特征表达xF送入对比损失函数和交叉熵损失函数中算出损失,从而对整个网络进行优化迭代,得到最终的特征提取模型;
第八步:将行人图像分为上下两部分,分别经过步骤一到步骤七所构成的网络的训练和特征提取步骤,利用最终训练出的特征提取模型提取出局部空时特征;训练行人的全局图片,利用特征提取模型提取出全局空时特征;将互补性的全局空时特征和局部空时特征融合,得到最终更具区分度的特征表达。
2.根据权利要求1所述的基于深度神经网络的空时特征提取方法,其特征在于:第一步中,所述三层卷积神经网络中,每一个卷积层卷积核大小均为5x5,激活层为双曲正切激活层,池化层为最大值池化。
3.根据权利要求1所述的基于深度神经网络的空时特征提取方法,其特征在于:第三步中,所述对一个行人序列中的图片输出的空域特征f(t)进行平均,是通过时域池化层实现,得到维度为128的平均特征向量xc,具体公式为:
T为一个行人图片序列的长度。
4.根据权利要求1-3任一项所述的基于深度神经网络的空时特征提取方法,其特征在于:第七步中,所述用对比损失函数和交叉熵损失对网络进行优化迭代,两种损失的权重比为1:1。
5.根据权利要求1-3任一项所述的基于深度神经网络的空时特征提取方法,其特征在于:第八步中,所述将互补性的全局空时特征和局部空时特征融合,其中融合权重从训练集中学得最优参数。
CN201710370428.9A 2017-05-23 2017-05-23 一种基于深度神经网络的空时特征提取方法 Active CN107220611B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710370428.9A CN107220611B (zh) 2017-05-23 2017-05-23 一种基于深度神经网络的空时特征提取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710370428.9A CN107220611B (zh) 2017-05-23 2017-05-23 一种基于深度神经网络的空时特征提取方法

Publications (2)

Publication Number Publication Date
CN107220611A CN107220611A (zh) 2017-09-29
CN107220611B true CN107220611B (zh) 2020-02-11

Family

ID=59944401

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710370428.9A Active CN107220611B (zh) 2017-05-23 2017-05-23 一种基于深度神经网络的空时特征提取方法

Country Status (1)

Country Link
CN (1) CN107220611B (zh)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107220640B (zh) * 2017-05-23 2020-07-17 广州绿怡信息科技有限公司 字符识别方法、装置、计算机设备和计算机可读存储介质
US11049018B2 (en) 2017-06-23 2021-06-29 Nvidia Corporation Transforming convolutional neural networks for visual sequence learning
CN108182394B (zh) * 2017-12-22 2021-02-02 浙江大华技术股份有限公司 卷积神经网络的训练方法、人脸识别方法及装置
CN108171184B (zh) * 2018-01-03 2020-04-10 南京理工大学 基于Siamese网络的用于行人重识别的方法
CN108229444B (zh) * 2018-02-09 2021-10-12 天津师范大学 一种基于整体和局部深度特征融合的行人再识别方法
CN108446594B (zh) * 2018-02-11 2021-08-06 四川省北青数据技术有限公司 基于动作识别的应急反应能力测评方法
CN108629753A (zh) * 2018-05-22 2018-10-09 广州洪森科技有限公司 一种基于循环神经网络的人脸图像恢复方法及装置
CN109002905B (zh) * 2018-06-25 2019-07-23 北京嘀嘀无限科技发展有限公司 预估到达时间的方法及系统
US11315354B2 (en) 2018-12-24 2022-04-26 Samsung Electronics Co., Ltd. Method and apparatus that controls augmented reality (AR) apparatus based on action prediction
CN109799472B (zh) * 2019-03-08 2022-06-28 沈阳工业大学 一种基于深度学习的磁共振涡流补偿方法
CN110222598B (zh) * 2019-05-21 2022-09-27 平安科技(深圳)有限公司 一种视频行为识别方法、装置、存储介质和服务器
CN110516736B (zh) * 2019-06-04 2022-02-22 沈阳瑞初科技有限公司 多维可视化的多源异构数据多层drnn深度融合方法
CN110399789B (zh) * 2019-06-14 2021-04-20 佳都新太科技股份有限公司 行人重识别方法、模型构建方法、装置、设备和存储介质
CN111126223B (zh) * 2019-12-16 2023-04-18 山西大学 基于光流引导特征的视频行人再识别方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106096568A (zh) * 2016-06-21 2016-11-09 同济大学 一种基于cnn和卷积lstm网络的行人再识别方法
CN106529442A (zh) * 2016-10-26 2017-03-22 清华大学 一种行人识别方法和装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9396412B2 (en) * 2012-06-21 2016-07-19 Siemens Aktiengesellschaft Machine-learnt person re-identification

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106096568A (zh) * 2016-06-21 2016-11-09 同济大学 一种基于cnn和卷积lstm网络的行人再识别方法
CN106529442A (zh) * 2016-10-26 2017-03-22 清华大学 一种行人识别方法和装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"Recurrent convolutional network for video-based person re-identification";N.McLaughlin等;《The IEEE ConferenceonComputer Vision and PatternRecognition》;20160215;全文 *

Also Published As

Publication number Publication date
CN107220611A (zh) 2017-09-29

Similar Documents

Publication Publication Date Title
CN107220611B (zh) 一种基于深度神经网络的空时特征提取方法
CN106778604B (zh) 基于匹配卷积神经网络的行人再识别方法
CN110163110B (zh) 一种基于迁移学习和深度特征融合的行人重识别方法
CN108830252B (zh) 一种融合全局时空特征的卷积神经网络人体动作识别方法
CN109670528B (zh) 面向行人重识别任务的基于成对样本随机遮挡策略的数据扩充方法
CN107529650B (zh) 闭环检测方法、装置及计算机设备
CN109583340B (zh) 一种基于深度学习的视频目标检测方法
CN111274921B (zh) 一种利用姿态掩模进行人体行为识别的方法
CN109325471B (zh) 一种结合表观特征和时空分布的双流网络行人重识别方法
CN108960404B (zh) 一种基于图像的人群计数方法及设备
CN109614853B (zh) 一种基于身体结构划分的双线性行人再识别网络构建方法
CN111325165B (zh) 考虑空间关系信息的城市遥感影像场景分类方法
CN109635636B (zh) 基于属性特征和加权的分块特征相融合的行人再识别方法
CN110738647B (zh) 融合多感受野特征映射与高斯概率模型的老鼠检测方法
CN114973317B (zh) 一种基于多尺度邻接交互特征的行人重识别方法
CN113239801B (zh) 基于多尺度特征学习和多级域对齐的跨域动作识别方法
CN113011329A (zh) 一种基于多尺度特征金字塔网络及密集人群计数方法
CN110909741A (zh) 一种基于背景分割的车辆再识别方法
CN111563404B (zh) 用于基于视频的人再识别的全局局部时间表示方法
CN106504204A (zh) 一种基于稀疏表示的单幅图像去雨方法
CN113177464B (zh) 基于深度学习的端到端的多模态步态识别方法
CN104376334A (zh) 一种多尺度特征融合的行人比对方法
CN113888501B (zh) 一种基于注意力定位网络的无参考型图像质量评价方法
CN116052218B (zh) 一种行人重识别方法
CN112084952B (zh) 一种基于自监督训练的视频点位跟踪方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant