CN110728216A - 一种基于行人属性自适应学习的无监督行人再识别方法 - Google Patents

一种基于行人属性自适应学习的无监督行人再识别方法 Download PDF

Info

Publication number
CN110728216A
CN110728216A CN201910927014.0A CN201910927014A CN110728216A CN 110728216 A CN110728216 A CN 110728216A CN 201910927014 A CN201910927014 A CN 201910927014A CN 110728216 A CN110728216 A CN 110728216A
Authority
CN
China
Prior art keywords
pedestrian
attribute
network
identification
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910927014.0A
Other languages
English (en)
Inventor
张顺
万帅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Northwest University of Technology
Original Assignee
Northwest University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwest University of Technology filed Critical Northwest University of Technology
Priority to CN201910927014.0A priority Critical patent/CN110728216A/zh
Publication of CN110728216A publication Critical patent/CN110728216A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种基于行人属性自适应学习的无监督行人再识别方法。首先,利用带标注的源视频集预训练调整过的ResNet50网络,得到预训练行人属性CNN模型;然后,在无任何标记的目标视频集上充分利用目标视频集的时空约束信息在线生成训练样本;接着,将生成的训练样本输入到Triplet网络,对预训练的行人CNN模型进行参数微调,得到更具判别性的行人特征;最后,利用已经训练好的网络进行行人特征提取和相似性度量,实现行人再识别。本发明方法所学到的特征具有更强的鲁棒性和判别性,能显著提升行人再识别的准确率,扩展行人再识别的应用范围。

Description

一种基于行人属性自适应学习的无监督行人再识别方法
技术领域
本发明属计算机视觉与模式识别技术领域,具体涉及一种基于行人属性自适应学习的无监督行人再识别方法。
背景技术
近些年来,随着社会对暴恐事件防范、刑事犯罪侦察等安全防范的日益重视,摄像机网络被广泛应用于地铁、机场、校园、超市等公共场所中,由此带来与城市公共安全相关的监控视频数据呈现爆炸式增长。无重叠视野摄像机监控技术不仅可以有效地扩大监控的视野,同时也能对运动目标在多个不同监控区域内的行为有更加清晰地把握,现已成为监控分析领域的研究热点。对于大部分监控场景来说,行人是智能监控的重要分析对象,基于视觉的行人再识别技术是智能监控的重要研究内容,是实现跨摄像头检索和跟踪的基础。
根据行人再识别采用的数据源不同,行人再识别方法可分为基于图像的行人再识别和基于视频的行人再识别。相比于基于图像的行人再识别方法仅考虑一帧图像的信息,视频数据包含更为丰富的时间信息,因此,基于视频的行人再识别方法可以获得更优的性能。当前绝大多数基于视频的行人再识别方法使用的是监督式训练方式,使用从网络公开的、已手动标定的行人视频数据集(即源视频集)进行监督式学习,将训练好的CNN模型作为特征提取器,对与源视频集行人特征分布一致的目标视频集提取行人特征并进行行人再识别。然而,这种方法需要大量人力和物力对源视频集进行标记,而对现有海量的监控视频数据进行标注显然是不现实的。另外,由于目标视频集中的行人特征分布与源视频集中的行人特征分布通常存在很大差异,使用在源视频集上学习得到的CNN模型判别目标视频中的行人目标,往往达不到最佳性能。
发明内容
为了克服现有技术的不足,本发明提供一种基于行人属性自适应学习的无监督行人再识别方法。利用目标视频集的时空约束信息在线生成训练样本,对经过源视频集预训练得到的行人CNN模型进行参数微调,得到更具判别性的行人特征。本发明方法实用性强、可明显提高行人再识别准确率。
一种基于行人属性自适应学习的无监督行人再识别方法,其特征在于步骤如下:
步骤1,行人属性CNN预训练:
设行人再识别源视频集共包含N张行人图片,每个行人含有m个行人属性,使用调整过的ResNet50模型对数据集中的行人图片同时预测m个行人属性的类别,并与真实属性类别计算二值交叉熵损失函数;
所述的调整过的ResNet50模型是指将ResNet50模型中含有1000神经元的全连接层换成含有m个神经元的全连接层,且使用ImageNet数据集预训练过的ResNet50模型;
步骤2,基于视频上下文时空约束收集样本数据集:
应用公开的行人检测器对目标视频中的每一帧图像进行行人检测,得到行人检测响应集X={x1,…,xR},其中,xi为第i个行人检测响应,i=1,…,R,R为检测响应总数;对所有行人检测响应进行数据关联进行数据关联,得到高置信度轨迹片段集合T={T1,…,TM},
Figure BDA0002219180160000021
为长度为nj的第j个行人轨迹片段,j=1,…,M,M为高置信度轨迹片段的数目;
根据属于同一类别的上下文时空约束信息,得到正样本集P+:
Figure BDA0002219180160000022
其中,
Figure BDA0002219180160000023
为第j个行人轨迹片段中的第k个检测响应;
Figure BDA0002219180160000024
为第j个行人轨迹片段中的第l个检测响应;
根据属于不同类别的上下文时空约束信息,得到负样本集N-:
Figure BDA0002219180160000025
其中,
Figure BDA0002219180160000026
为第p个行人轨迹片段中的第m个检测响应;Hj,p=1表示两个轨迹片段Tj和Tp在某一帧图像中同时出现;
步骤3,行人属性的自适应学习:
以正样本集和负样本集中的样本构建得到训练集
Figure BDA0002219180160000027
利用训练集S对Triplet网络进行训练,Triplet网络由结构相同且共享权值的三个卷积神经网络组成,每个卷积神经网络的架构与步骤1中预训练的ResNet50神经网络架构相同,并设定网络损失函数为:
Figure BDA0002219180160000028
其中,
Figure BDA0002219180160000029
为类间约束项,
Figure BDA00022191801600000210
为类内约束项,ζ为权重系数,取值为0.2,△为语义属性约束项,其表达式分别为:
Figure BDA0002219180160000031
Figure BDA0002219180160000032
Figure BDA0002219180160000033
其中,f(A)表示A行人属性特征向量,
Figure BDA0002219180160000034
表示利用步骤1得到的网络对样本处理得到的A行人预测属性特征向量,D(f(A),f(B))表示A行人属性特征向量和B行人属性特征向量之间的欧式平方距离,
Figure BDA0002219180160000035
表示A行人属性特征向量和其预测属性特征向量之间的欧式平方距离,α为原始Triplet损失函数中的阈值参数,取值为1,
Figure BDA0002219180160000036
为新阈值参数,取值为0.1;这里,A和B分别代指
Figure BDA0002219180160000037
步骤4,行人再识别:
利用步骤3得到的网络分别对目标视频集的待检索行人图片和测试图片提取行人特征,然后对得到的待检索图片与测试图片的行人特征之间做相似性度量,距离最小的测试图片中的特征对应的标记行人即为待测行人,或者距离小于阈值的所有特征根据标签进行投票,票数最多的特征对应的标记行人即为待测行人;所述的相似性度量包括计算欧式距离、余弦距离、曼哈顿距离或巴氏距离;所述的阈值由实验确定,取值范围在0.1~0.3之间。
本发明的有益效果是:由于充分利用目标视频集的时空约束信息在线生成训练样本,对经过源视频集预训练得到的网络模型进行参数微调,得到更具判别性的行人特征,大幅提高了行人再识别的准确率。由于所使用的源视频集可以是网络公开的、已标注的行人再识别视频数据,是唯一需要标注的,而目标视频集可以和源视频集具有不同的行人特征分布,并且不需要任何标注,极大的扩展了行人再识别的应用范围,提高了行人再识别的性能。本发明方法所学到的特征具有更强的鲁棒性和判别性,能显著提升行人再识别的准确率,扩展行人再识别的应用范围。
附图说明
图1为本发明的一种基于行人属性自适应学习的无监督行人再识别方法流程图
图2是原始Triplet损失函数与本发明的改进Triplet损失函数在行人属性空间的特征学习比较示意图
具体实施方式
下面结合附图和实施例对本发明进一步说明,本发明包括但不仅限于下述实施例。
如图1所示,本发明提供了一种基于行人属性自适应学习的无监督行人再识别方法,其实现过程如下:
1、在源视频集上预训练行人属性CNN模型
行人再识别源视频集表示为
Figure BDA0002219180160000041
共包含N张行人图片Ii,每张行人图片标记有行人语义属性标签a1=[ai,1,…,ai,m],每个行人含有m个行人属性,如年龄、性别、头发长度、上衣长度、背包、手提包、裤子颜色、鞋子颜色等。所使用源视频集通常是在现实场景中由多个无重叠视野的摄像机拍摄的视频,经过行人检测器检测或手工标定出行人的位置,属性标签都由手工标定。常用的公开行人再识别数据集有Market-1501、DukeMTMC-reID等。
本发明采用的深度卷积神经网络主体框架为50层的深度残差网络模型——ResNet50模型。深度残差网络模型借鉴了highway网络的思想,在构造网络时增加了捷径连接,使后续层的输出不是传统神经网络中输入的映射,而是输入的映射和输入的叠加,从而解决了深度神经网络训练的梯度消失或爆炸以及特征分布不均匀等问题。同时,神经网络深度的增加使网络具有学习到更多隐含判别性特征的能力。ResNet50模型包含大量的卷积层和池化层,最后一个隐含层经过全局平均池化操作后,会接一个含有1000神经元的全连接层,用于预测ImageNet数据集的图片类别。本发明使用在ImageNet预训练过的ResNet50模型架构和参数,只将最后含有1000神经元的全连接层换成含有m个神经元的全连接层,对应待识别图像的m个行人属性类别。
行人属性CNN预训练是使用ResNet50模型对训练集中行人图片Ii同时预测m个行人属性的类别,并与真实属性类别计算二值交叉熵损失函数。对批量处理的nbs张行人图片,二值交叉熵损失函数Latt计算如下:
Figure BDA0002219180160000042
式中,ai,j是第i张行人图片第j个真实属性类别,patt(Ii,ai,j)是预测行人图片Ii的属性类别为ai,j的概率。
2、基于视频上下文时空约束收集样本数据集
视频上下文时空约束是考虑行人目标在摄像机视频中出现的空间关系和时间关系,并把这两种关系作为目标匹配时的上下文知识。针对目标视频集中的多个跨摄像机视频,应用公开的行人检测器对视频每一帧图像进行行人检测,生成行人检测响应集X={x1,…,xR},其中,R是生成所有检测响应的数目。本发明首先对目标视频中检测响应进行数据关联,生成高置信度轨迹片段集合T={T1,…,TM},其中,
Figure BDA0002219180160000051
为长度为nj的第j个行人轨迹片段,j=1,…,M,M为高置信度轨迹片段的数目。数据关联是对相邻帧的检测响应计算位置、大小、方向、外观等特征的相似性,相似度高于某个阈值就关联,反之不关联。
虽然应用以上方法生成的每个轨迹片段的目标身份未知,但可以从中挖掘出两种时空约束信息:(1)属于同一类别的约束信息:同一个轨迹片段上的所有检测响应可以认为是属于同一个类别,行人属性差异很小;(2)属于不同类别的约束信息:当两个轨迹片段在某一帧图像上同时出现,这两个轨迹片段各自的检测响应属于不同类别,行人属性差异较大。
因此,根据从目标视频集中挖掘的时空约束信息,可以在线生成大量的行人正负训练样本。定义矩阵
Figure BDA0002219180160000052
如果两个轨迹片段Tj和Tp在某一时刻同时出现,矩阵的元素Hj,p=1取值为1,否则的话Hj,p=0。根据属于同一类别的约束信息,可以收集正样本集P+:
Figure BDA0002219180160000053
其中,
Figure BDA0002219180160000054
为第j个行人轨迹片段中的第k个检测响应;
Figure BDA0002219180160000055
为第j个行人轨迹片段中的第l个检测响应。
根据属于不同类别的约束信息,可以收集负样本集N-:
Figure BDA0002219180160000056
其中,
Figure BDA0002219180160000057
为第p个行人轨迹片段中的第m个检测响应。
3、行人属性的自适应学习
由于预训练神经网络模型使用源视频集进行学习,目标视频集与源视频集的行人属性分布可能存在较大差异,因此需要在目标视频集上利用在线收集的训练样本对深度神经网络的参数进行在线调整。对于样本集P+和N-的一对训练图像x1和x2,自适应特征学习算法的主要目标是优化学习行人属性特征向量f(·),使输入图像对x1和x2的相似性直接使用CNN行人属性空间上的欧式平方距离D(f(x1),f(x2))度量:
Figure BDA0002219180160000061
图像对x1和x2的相似性越大,行人属性f(x1)和f(x2)的欧式平方距离D(f(x1),f(x2))值则越小。
收集的训练样本可以三元组的方式输入给Triplet网络,以自适应调整预训练CNN模型的权重参数,得到针对目标视频集更具有判别性的行人属性表示。所生成的Triplet训练集表示如下:
Figure BDA0002219180160000062
Triplet网络由结构相同且共享权值的三个卷积神经网络组成,每个卷积神经网络的架构与预训练的ResNet50神经网络架构一样。原始Triplet损失函数可以直接优化输入图像在语义属性特征空间上的欧式平方距离,公式如下:
Figure BDA0002219180160000063
损失函数L0是优化输入图像对在CNN特征空间上的欧式平方距离D(·),使负样本
Figure BDA0002219180160000064
与正样本
Figure BDA0002219180160000065
的距离比正样本对
Figure BDA0002219180160000066
之间的距离大于一个阈值α。然而,原始Triplet损失函数只考虑使负样本
Figure BDA0002219180160000067
远离其中一个正样本
Figure BDA0002219180160000068
也没有约束正样本对之间的距离。针对上述问题,本发明提出了改进的Triplet损失函数LS
其中,
Figure BDA00022191801600000610
为类间约束项,
Figure BDA00022191801600000611
为类内约束项,ζ为权重系数,取值为0.2,△为语义属性约束项,其表达式分别为:
Figure BDA00022191801600000612
Figure BDA00022191801600000614
其中,
Figure BDA00022191801600000615
Figure BDA00022191801600000616
是步骤1预训练CNN在自适应学习前对三元组样本图像的属性预测。
由公式(11)-(14)可以看出,类间约束项
Figure BDA00022191801600000617
是使负样本
Figure BDA00022191801600000618
同时远离正样本对
Figure BDA00022191801600000619
并与正样本对的平均距离大于阈值α;类内约束项
Figure BDA00022191801600000620
是拉近正样本
Figure BDA0002219180160000071
Figure BDA0002219180160000072
的距离直到小于阈值
Figure BDA0002219180160000073
语义属性约束项△是避免行人属性特征f(·)在CNN参数微调过程中变化过大。改进的损失函数LS是优化输入图像对在CNN特征空间上的欧式平方距离D(·),使负样本
Figure BDA0002219180160000074
同时远离正样本对
Figure BDA0002219180160000075
并且约束正样本对
Figure BDA0002219180160000076
的距离小于一定阈值,如图2所示。本发明中阈值α取值为1,阈值取值为0.1。
4、行人再识别
使用已经训练好的深度卷积神经网络分别对目标视频集的待检索行人图片和测试图片提取行人特征,然后使用欧式距离、余弦距离或其他距离度量方法,对待检索图片与测试图片的行人特征之间做相似性度量,距离越小表示两张行人图片特征越相似,更有可能为同一行人目标,相似度达到预设值即有可能为同一行人。由于特征库中可能有多个高于阈值的特征,确定方法可采用二种策略:1)距离最小的特征库中的特征对应的标记行人即为待测行人;2)距离小于阈值的所有特征根据标签进行投票确定待测行人的类别。所述的阈值由具体数据实验确定,一般可设在0.1~0.3之间。

Claims (1)

1.一种基于行人属性自适应学习的无监督行人再识别方法,其特征在于步骤如下:
步骤1,行人属性CNN预训练:
设行人再识别源视频集共包含N张行人图片,每个行人含有m个行人属性,使用调整过的ResNet50模型对数据集中的行人图片同时预测m个行人属性的类别,并与真实属性类别计算二值交叉熵损失函数;
所述的调整过的ResNet50模型是指将ResNet50模型中含有1000神经元的全连接层换成含有m个神经元的全连接层,且使用ImageNet数据集预训练过的ResNet50模型;
步骤2,基于视频上下文时空约束收集样本数据集:
应用公开的行人检测器对目标视频中的每一帧图像进行行人检测,得到行人检测响应集X={x1,…,xR},其中,xi为第i个行人检测响应,i=1,…,R,R为检测响应总数;对所有行人检测响应进行数据关联进行数据关联,得到高置信度轨迹片段集合T={T1,…,TM},
Figure FDA0002219180150000011
为长度为nj的第j个行人轨迹片段,j=1,…,M,M为高置信度轨迹片段的数目;
根据属于同一类别的上下文时空约束信息,得到正样本集P+
Figure FDA0002219180150000012
其中,
Figure FDA0002219180150000013
为第j个行人轨迹片段中的第k个检测响应;
Figure FDA0002219180150000014
为第j个行人轨迹片段中的第l个检测响应;
根据属于不同类别的上下文时空约束信息,得到负样本集N-
Figure FDA0002219180150000015
其中,为第p个行人轨迹片段中的第m个检测响应;Hj,p=1表示两个轨迹片段Tj和Tp在某一帧图像中同时出现;
步骤3,行人属性的自适应学习:
以正样本集和负样本集中的样本构建得到训练集
Figure FDA0002219180150000017
利用训练集S对Triplet网络进行训练,Triplet网络由结构相同且共享权值的三个卷积神经网络组成,每个卷积神经网络的架构与步骤1中预训练的ResNet50神经网络架构相同,并设定网络损失函数为:
Figure FDA0002219180150000018
其中,
Figure FDA0002219180150000021
为类间约束项,
Figure FDA0002219180150000022
为类内约束项,ζ为权重系数,取值为0.2,△为语义属性约束项,其表达式分别为:
Figure FDA0002219180150000023
Figure FDA0002219180150000024
Figure FDA0002219180150000025
其中,f(A)表示A行人属性特征向量,
Figure FDA0002219180150000026
表示利用步骤1得到的网络对样本处理得到的A行人预测属性特征向量,D(f(A),f(B))表示A行人属性特征向量和B行人属性特征向量之间的欧式平方距离,
Figure FDA0002219180150000027
表示A行人属性特征向量和其预测属性特征向量之间的欧式平方距离,α为原始Triplet损失函数中的阈值参数,取值为1,
Figure FDA0002219180150000028
为新阈值参数,取值为0.1;这里,A和B分别代指
Figure FDA00022191801500000210
步骤4,行人再识别:
利用步骤3得到的网络分别对目标视频集的待检索行人图片和测试图片提取行人特征,然后对得到的待检索图片与测试图片的行人特征之间做相似性度量,距离最小的测试图片中的特征对应的标记行人即为待测行人,或者距离小于阈值的所有特征根据标签进行投票,票数最多的特征对应的标记行人即为待测行人;所述的相似性度量包括计算欧式距离、余弦距离、曼哈顿距离或巴氏距离;所述的阈值由实验确定,取值范围在0.1~0.3之间。
CN201910927014.0A 2019-09-27 2019-09-27 一种基于行人属性自适应学习的无监督行人再识别方法 Pending CN110728216A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910927014.0A CN110728216A (zh) 2019-09-27 2019-09-27 一种基于行人属性自适应学习的无监督行人再识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910927014.0A CN110728216A (zh) 2019-09-27 2019-09-27 一种基于行人属性自适应学习的无监督行人再识别方法

Publications (1)

Publication Number Publication Date
CN110728216A true CN110728216A (zh) 2020-01-24

Family

ID=69218564

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910927014.0A Pending CN110728216A (zh) 2019-09-27 2019-09-27 一种基于行人属性自适应学习的无监督行人再识别方法

Country Status (1)

Country Link
CN (1) CN110728216A (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111598004A (zh) * 2020-05-18 2020-08-28 北京星闪世图科技有限公司 一种渐进增强自学习的无监督跨领域行人再识别方法
CN111626194A (zh) * 2020-05-26 2020-09-04 佛山市南海区广工大数控装备协同创新研究院 一种使用深度关联度量的行人多目标跟踪方法
CN111914730A (zh) * 2020-07-28 2020-11-10 上海工程技术大学 一种基于联合时空采样的无监督视频序列行人再识别方法
CN112001353A (zh) * 2020-09-03 2020-11-27 杭州云栖智慧视通科技有限公司 一种基于多任务联合监督学习的行人再识别方法
CN112818175A (zh) * 2021-02-07 2021-05-18 中国矿业大学 一种厂区工作人员搜索方法及人员识别模型的训练方法
CN113705439A (zh) * 2021-08-27 2021-11-26 中山大学 基于弱监督和度量学习的行人属性识别方法
CN114612927A (zh) * 2020-12-09 2022-06-10 四川大学 一种基于图像文本双通道联合的行人重识别方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107330396A (zh) * 2017-06-28 2017-11-07 华中科技大学 一种基于多属性和多策略融合学习的行人再识别方法
AU2018100321A4 (en) * 2018-03-15 2018-04-26 Chen, Jinghan Mr Person ReID method based on metric learning with hard mining
WO2018196396A1 (zh) * 2017-04-24 2018-11-01 清华大学 基于一致性约束特征学习的行人再识别方法
CN108875487A (zh) * 2017-09-29 2018-11-23 北京旷视科技有限公司 行人重识别网络的训练及基于其的行人重识别
CN109101865A (zh) * 2018-05-31 2018-12-28 湖北工业大学 一种基于深度学习的行人重识别方法
CN109948561A (zh) * 2019-03-25 2019-06-28 广东石油化工学院 基于迁移网络的无监督图像视频行人重识别的方法及系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018196396A1 (zh) * 2017-04-24 2018-11-01 清华大学 基于一致性约束特征学习的行人再识别方法
CN107330396A (zh) * 2017-06-28 2017-11-07 华中科技大学 一种基于多属性和多策略融合学习的行人再识别方法
CN108875487A (zh) * 2017-09-29 2018-11-23 北京旷视科技有限公司 行人重识别网络的训练及基于其的行人重识别
AU2018100321A4 (en) * 2018-03-15 2018-04-26 Chen, Jinghan Mr Person ReID method based on metric learning with hard mining
CN109101865A (zh) * 2018-05-31 2018-12-28 湖北工业大学 一种基于深度学习的行人重识别方法
CN109948561A (zh) * 2019-03-25 2019-06-28 广东石油化工学院 基于迁移网络的无监督图像视频行人重识别的方法及系统

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
SHUN ZHANG等: "Deep Metric Learning with Improved Triplet Loss for Face Clustering in Videos" *
SHUN ZHANG等: "Person Re-Identification With Joint Verification and Identification of Identity-Attribute Labels" *
SHUN ZHANG等: "Tracking Persons-of-Interest via Unsupervised Representation Adaptation" *
王兴柱;王儒敬;: "三元组在非监督行人再识别中的应用" *

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111598004B (zh) * 2020-05-18 2023-12-08 江苏星闪世图科技(集团)有限公司 一种渐进增强自学习的无监督跨领域行人再识别方法
CN111598004A (zh) * 2020-05-18 2020-08-28 北京星闪世图科技有限公司 一种渐进增强自学习的无监督跨领域行人再识别方法
CN111626194A (zh) * 2020-05-26 2020-09-04 佛山市南海区广工大数控装备协同创新研究院 一种使用深度关联度量的行人多目标跟踪方法
CN111626194B (zh) * 2020-05-26 2024-02-02 佛山市南海区广工大数控装备协同创新研究院 一种使用深度关联度量的行人多目标跟踪方法
CN111914730B (zh) * 2020-07-28 2023-11-24 上海工程技术大学 一种基于联合时空采样的无监督视频序列行人再识别方法
CN111914730A (zh) * 2020-07-28 2020-11-10 上海工程技术大学 一种基于联合时空采样的无监督视频序列行人再识别方法
CN112001353A (zh) * 2020-09-03 2020-11-27 杭州云栖智慧视通科技有限公司 一种基于多任务联合监督学习的行人再识别方法
CN112001353B (zh) * 2020-09-03 2023-02-17 杭州云栖智慧视通科技有限公司 一种基于多任务联合监督学习的行人再识别方法
CN114612927A (zh) * 2020-12-09 2022-06-10 四川大学 一种基于图像文本双通道联合的行人重识别方法
CN114612927B (zh) * 2020-12-09 2023-05-09 四川大学 一种基于图像文本双通道联合的行人重识别方法
CN112818175B (zh) * 2021-02-07 2023-09-01 中国矿业大学 一种厂区工作人员搜索方法及人员识别模型的训练方法
CN112818175A (zh) * 2021-02-07 2021-05-18 中国矿业大学 一种厂区工作人员搜索方法及人员识别模型的训练方法
CN113705439B (zh) * 2021-08-27 2023-09-08 中山大学 基于弱监督和度量学习的行人属性识别方法
CN113705439A (zh) * 2021-08-27 2021-11-26 中山大学 基于弱监督和度量学习的行人属性识别方法

Similar Documents

Publication Publication Date Title
CN110728216A (zh) 一种基于行人属性自适应学习的无监督行人再识别方法
CN109961051B (zh) 一种基于聚类和分块特征提取的行人重识别方法
US10248860B2 (en) System and method for object re-identification
CN111709311B (zh) 一种基于多尺度卷积特征融合的行人重识别方法
CN107016357B (zh) 一种基于时间域卷积神经网络的视频行人检测方法
CN108520226B (zh) 一种基于躯体分解和显著性检测的行人重识别方法
CN110717411A (zh) 一种基于深层特征融合的行人重识别方法
CN111126360A (zh) 基于无监督联合多损失模型的跨域行人重识别方法
CN110580460A (zh) 基于行人身份和属性特征联合识别验证的行人再识别方法
CN111027421A (zh) 一种基于图的直推式半监督行人再识别方法
CN108960047B (zh) 基于深度二次树的视频监控中人脸去重方法
CN110633632A (zh) 一种基于循环指导的弱监督联合目标检测和语义分割方法
CN109902612B (zh) 一种基于无监督学习的监控视频异常检测方法
CN110807434A (zh) 一种基于人体解析粗细粒度结合的行人重识别系统及方法
CN111339975A (zh) 基于中心尺度预测与孪生神经网络的目标检测识别跟踪方法
CN108875754A (zh) 一种基于多深度特征融合网络的车辆再识别方法
CN111967433A (zh) 一种基于自监督学习网络的动作识别办法
CN115527269B (zh) 一种人体姿态图像智能识别方法及系统
CN113642482A (zh) 一种基于视频时空上下文的视频人物关系分析方法
CN107679467B (zh) 一种基于hsv和sdalf的行人重识别算法实现方法
Megha et al. Intelligent optimization of latent fingerprint image segmentation using stacked convolutional autoencoder
Elbaşi Fuzzy logic-based scenario recognition from video sequences
Chang et al. Robust abandoned object detection and analysis based on online learning
Weng et al. Crowd density estimation based on a modified multicolumn convolutional neural network
CN115393788A (zh) 一种基于增强全局信息注意力的多尺度监控行人重识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20200124

WD01 Invention patent application deemed withdrawn after publication