CN110728216A - 一种基于行人属性自适应学习的无监督行人再识别方法 - Google Patents
一种基于行人属性自适应学习的无监督行人再识别方法 Download PDFInfo
- Publication number
- CN110728216A CN110728216A CN201910927014.0A CN201910927014A CN110728216A CN 110728216 A CN110728216 A CN 110728216A CN 201910927014 A CN201910927014 A CN 201910927014A CN 110728216 A CN110728216 A CN 110728216A
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- attribute
- network
- identification
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 23
- 230000003044 adaptive effect Effects 0.000 title claims description 9
- 238000012549 training Methods 0.000 claims abstract description 27
- 238000005259 measurement Methods 0.000 claims abstract description 5
- 238000001514 detection method Methods 0.000 claims description 24
- 230000004044 response Effects 0.000 claims description 23
- 238000013527 convolutional neural network Methods 0.000 claims description 20
- 230000006870 function Effects 0.000 claims description 14
- 239000000126 substance Substances 0.000 claims description 10
- 238000013528 artificial neural network Methods 0.000 claims description 8
- 238000012360 testing method Methods 0.000 claims description 8
- 210000002569 neuron Anatomy 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 3
- 238000002474 experimental method Methods 0.000 claims description 3
- 230000014509 gene expression Effects 0.000 claims description 3
- 238000012545 processing Methods 0.000 claims description 3
- 238000000605 extraction Methods 0.000 abstract 1
- 238000012544 monitoring process Methods 0.000 description 8
- 238000009826 distribution Methods 0.000 description 7
- 238000004458 analytical method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 239000002360 explosive Substances 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种基于行人属性自适应学习的无监督行人再识别方法。首先,利用带标注的源视频集预训练调整过的ResNet50网络,得到预训练行人属性CNN模型;然后,在无任何标记的目标视频集上充分利用目标视频集的时空约束信息在线生成训练样本;接着,将生成的训练样本输入到Triplet网络,对预训练的行人CNN模型进行参数微调,得到更具判别性的行人特征;最后,利用已经训练好的网络进行行人特征提取和相似性度量,实现行人再识别。本发明方法所学到的特征具有更强的鲁棒性和判别性,能显著提升行人再识别的准确率,扩展行人再识别的应用范围。
Description
技术领域
本发明属计算机视觉与模式识别技术领域,具体涉及一种基于行人属性自适应学习的无监督行人再识别方法。
背景技术
近些年来,随着社会对暴恐事件防范、刑事犯罪侦察等安全防范的日益重视,摄像机网络被广泛应用于地铁、机场、校园、超市等公共场所中,由此带来与城市公共安全相关的监控视频数据呈现爆炸式增长。无重叠视野摄像机监控技术不仅可以有效地扩大监控的视野,同时也能对运动目标在多个不同监控区域内的行为有更加清晰地把握,现已成为监控分析领域的研究热点。对于大部分监控场景来说,行人是智能监控的重要分析对象,基于视觉的行人再识别技术是智能监控的重要研究内容,是实现跨摄像头检索和跟踪的基础。
根据行人再识别采用的数据源不同,行人再识别方法可分为基于图像的行人再识别和基于视频的行人再识别。相比于基于图像的行人再识别方法仅考虑一帧图像的信息,视频数据包含更为丰富的时间信息,因此,基于视频的行人再识别方法可以获得更优的性能。当前绝大多数基于视频的行人再识别方法使用的是监督式训练方式,使用从网络公开的、已手动标定的行人视频数据集(即源视频集)进行监督式学习,将训练好的CNN模型作为特征提取器,对与源视频集行人特征分布一致的目标视频集提取行人特征并进行行人再识别。然而,这种方法需要大量人力和物力对源视频集进行标记,而对现有海量的监控视频数据进行标注显然是不现实的。另外,由于目标视频集中的行人特征分布与源视频集中的行人特征分布通常存在很大差异,使用在源视频集上学习得到的CNN模型判别目标视频中的行人目标,往往达不到最佳性能。
发明内容
为了克服现有技术的不足,本发明提供一种基于行人属性自适应学习的无监督行人再识别方法。利用目标视频集的时空约束信息在线生成训练样本,对经过源视频集预训练得到的行人CNN模型进行参数微调,得到更具判别性的行人特征。本发明方法实用性强、可明显提高行人再识别准确率。
一种基于行人属性自适应学习的无监督行人再识别方法,其特征在于步骤如下:
步骤1,行人属性CNN预训练:
设行人再识别源视频集共包含N张行人图片,每个行人含有m个行人属性,使用调整过的ResNet50模型对数据集中的行人图片同时预测m个行人属性的类别,并与真实属性类别计算二值交叉熵损失函数;
所述的调整过的ResNet50模型是指将ResNet50模型中含有1000神经元的全连接层换成含有m个神经元的全连接层,且使用ImageNet数据集预训练过的ResNet50模型;
步骤2,基于视频上下文时空约束收集样本数据集:
应用公开的行人检测器对目标视频中的每一帧图像进行行人检测,得到行人检测响应集X={x1,…,xR},其中,xi为第i个行人检测响应,i=1,…,R,R为检测响应总数;对所有行人检测响应进行数据关联进行数据关联,得到高置信度轨迹片段集合T={T1,…,TM},为长度为nj的第j个行人轨迹片段,j=1,…,M,M为高置信度轨迹片段的数目;
根据属于同一类别的上下文时空约束信息,得到正样本集P+:
根据属于不同类别的上下文时空约束信息,得到负样本集N-:
步骤3,行人属性的自适应学习:
以正样本集和负样本集中的样本构建得到训练集利用训练集S对Triplet网络进行训练,Triplet网络由结构相同且共享权值的三个卷积神经网络组成,每个卷积神经网络的架构与步骤1中预训练的ResNet50神经网络架构相同,并设定网络损失函数为:
其中,f(A)表示A行人属性特征向量,表示利用步骤1得到的网络对样本处理得到的A行人预测属性特征向量,D(f(A),f(B))表示A行人属性特征向量和B行人属性特征向量之间的欧式平方距离,表示A行人属性特征向量和其预测属性特征向量之间的欧式平方距离,α为原始Triplet损失函数中的阈值参数,取值为1,为新阈值参数,取值为0.1;这里,A和B分别代指或
步骤4,行人再识别:
利用步骤3得到的网络分别对目标视频集的待检索行人图片和测试图片提取行人特征,然后对得到的待检索图片与测试图片的行人特征之间做相似性度量,距离最小的测试图片中的特征对应的标记行人即为待测行人,或者距离小于阈值的所有特征根据标签进行投票,票数最多的特征对应的标记行人即为待测行人;所述的相似性度量包括计算欧式距离、余弦距离、曼哈顿距离或巴氏距离;所述的阈值由实验确定,取值范围在0.1~0.3之间。
本发明的有益效果是:由于充分利用目标视频集的时空约束信息在线生成训练样本,对经过源视频集预训练得到的网络模型进行参数微调,得到更具判别性的行人特征,大幅提高了行人再识别的准确率。由于所使用的源视频集可以是网络公开的、已标注的行人再识别视频数据,是唯一需要标注的,而目标视频集可以和源视频集具有不同的行人特征分布,并且不需要任何标注,极大的扩展了行人再识别的应用范围,提高了行人再识别的性能。本发明方法所学到的特征具有更强的鲁棒性和判别性,能显著提升行人再识别的准确率,扩展行人再识别的应用范围。
附图说明
图1为本发明的一种基于行人属性自适应学习的无监督行人再识别方法流程图
图2是原始Triplet损失函数与本发明的改进Triplet损失函数在行人属性空间的特征学习比较示意图
具体实施方式
下面结合附图和实施例对本发明进一步说明,本发明包括但不仅限于下述实施例。
如图1所示,本发明提供了一种基于行人属性自适应学习的无监督行人再识别方法,其实现过程如下:
1、在源视频集上预训练行人属性CNN模型
行人再识别源视频集表示为共包含N张行人图片Ii,每张行人图片标记有行人语义属性标签a1=[ai,1,…,ai,m],每个行人含有m个行人属性,如年龄、性别、头发长度、上衣长度、背包、手提包、裤子颜色、鞋子颜色等。所使用源视频集通常是在现实场景中由多个无重叠视野的摄像机拍摄的视频,经过行人检测器检测或手工标定出行人的位置,属性标签都由手工标定。常用的公开行人再识别数据集有Market-1501、DukeMTMC-reID等。
本发明采用的深度卷积神经网络主体框架为50层的深度残差网络模型——ResNet50模型。深度残差网络模型借鉴了highway网络的思想,在构造网络时增加了捷径连接,使后续层的输出不是传统神经网络中输入的映射,而是输入的映射和输入的叠加,从而解决了深度神经网络训练的梯度消失或爆炸以及特征分布不均匀等问题。同时,神经网络深度的增加使网络具有学习到更多隐含判别性特征的能力。ResNet50模型包含大量的卷积层和池化层,最后一个隐含层经过全局平均池化操作后,会接一个含有1000神经元的全连接层,用于预测ImageNet数据集的图片类别。本发明使用在ImageNet预训练过的ResNet50模型架构和参数,只将最后含有1000神经元的全连接层换成含有m个神经元的全连接层,对应待识别图像的m个行人属性类别。
行人属性CNN预训练是使用ResNet50模型对训练集中行人图片Ii同时预测m个行人属性的类别,并与真实属性类别计算二值交叉熵损失函数。对批量处理的nbs张行人图片,二值交叉熵损失函数Latt计算如下:
式中,ai,j是第i张行人图片第j个真实属性类别,patt(Ii,ai,j)是预测行人图片Ii的属性类别为ai,j的概率。
2、基于视频上下文时空约束收集样本数据集
视频上下文时空约束是考虑行人目标在摄像机视频中出现的空间关系和时间关系,并把这两种关系作为目标匹配时的上下文知识。针对目标视频集中的多个跨摄像机视频,应用公开的行人检测器对视频每一帧图像进行行人检测,生成行人检测响应集X={x1,…,xR},其中,R是生成所有检测响应的数目。本发明首先对目标视频中检测响应进行数据关联,生成高置信度轨迹片段集合T={T1,…,TM},其中,为长度为nj的第j个行人轨迹片段,j=1,…,M,M为高置信度轨迹片段的数目。数据关联是对相邻帧的检测响应计算位置、大小、方向、外观等特征的相似性,相似度高于某个阈值就关联,反之不关联。
虽然应用以上方法生成的每个轨迹片段的目标身份未知,但可以从中挖掘出两种时空约束信息:(1)属于同一类别的约束信息:同一个轨迹片段上的所有检测响应可以认为是属于同一个类别,行人属性差异很小;(2)属于不同类别的约束信息:当两个轨迹片段在某一帧图像上同时出现,这两个轨迹片段各自的检测响应属于不同类别,行人属性差异较大。
因此,根据从目标视频集中挖掘的时空约束信息,可以在线生成大量的行人正负训练样本。定义矩阵如果两个轨迹片段Tj和Tp在某一时刻同时出现,矩阵的元素Hj,p=1取值为1,否则的话Hj,p=0。根据属于同一类别的约束信息,可以收集正样本集P+:
根据属于不同类别的约束信息,可以收集负样本集N-:
3、行人属性的自适应学习
由于预训练神经网络模型使用源视频集进行学习,目标视频集与源视频集的行人属性分布可能存在较大差异,因此需要在目标视频集上利用在线收集的训练样本对深度神经网络的参数进行在线调整。对于样本集P+和N-的一对训练图像x1和x2,自适应特征学习算法的主要目标是优化学习行人属性特征向量f(·),使输入图像对x1和x2的相似性直接使用CNN行人属性空间上的欧式平方距离D(f(x1),f(x2))度量:图像对x1和x2的相似性越大,行人属性f(x1)和f(x2)的欧式平方距离D(f(x1),f(x2))值则越小。
Triplet网络由结构相同且共享权值的三个卷积神经网络组成,每个卷积神经网络的架构与预训练的ResNet50神经网络架构一样。原始Triplet损失函数可以直接优化输入图像在语义属性特征空间上的欧式平方距离,公式如下:
损失函数L0是优化输入图像对在CNN特征空间上的欧式平方距离D(·),使负样本与正样本的距离比正样本对之间的距离大于一个阈值α。然而,原始Triplet损失函数只考虑使负样本远离其中一个正样本也没有约束正样本对之间的距离。针对上述问题,本发明提出了改进的Triplet损失函数LS:
由公式(11)-(14)可以看出,类间约束项是使负样本同时远离正样本对并与正样本对的平均距离大于阈值α;类内约束项是拉近正样本和的距离直到小于阈值语义属性约束项△是避免行人属性特征f(·)在CNN参数微调过程中变化过大。改进的损失函数LS是优化输入图像对在CNN特征空间上的欧式平方距离D(·),使负样本同时远离正样本对并且约束正样本对的距离小于一定阈值,如图2所示。本发明中阈值α取值为1,阈值取值为0.1。
4、行人再识别
使用已经训练好的深度卷积神经网络分别对目标视频集的待检索行人图片和测试图片提取行人特征,然后使用欧式距离、余弦距离或其他距离度量方法,对待检索图片与测试图片的行人特征之间做相似性度量,距离越小表示两张行人图片特征越相似,更有可能为同一行人目标,相似度达到预设值即有可能为同一行人。由于特征库中可能有多个高于阈值的特征,确定方法可采用二种策略:1)距离最小的特征库中的特征对应的标记行人即为待测行人;2)距离小于阈值的所有特征根据标签进行投票确定待测行人的类别。所述的阈值由具体数据实验确定,一般可设在0.1~0.3之间。
Claims (1)
1.一种基于行人属性自适应学习的无监督行人再识别方法,其特征在于步骤如下:
步骤1,行人属性CNN预训练:
设行人再识别源视频集共包含N张行人图片,每个行人含有m个行人属性,使用调整过的ResNet50模型对数据集中的行人图片同时预测m个行人属性的类别,并与真实属性类别计算二值交叉熵损失函数;
所述的调整过的ResNet50模型是指将ResNet50模型中含有1000神经元的全连接层换成含有m个神经元的全连接层,且使用ImageNet数据集预训练过的ResNet50模型;
步骤2,基于视频上下文时空约束收集样本数据集:
应用公开的行人检测器对目标视频中的每一帧图像进行行人检测,得到行人检测响应集X={x1,…,xR},其中,xi为第i个行人检测响应,i=1,…,R,R为检测响应总数;对所有行人检测响应进行数据关联进行数据关联,得到高置信度轨迹片段集合T={T1,…,TM},为长度为nj的第j个行人轨迹片段,j=1,…,M,M为高置信度轨迹片段的数目;
根据属于同一类别的上下文时空约束信息,得到正样本集P+:
根据属于不同类别的上下文时空约束信息,得到负样本集N-:
其中,为第p个行人轨迹片段中的第m个检测响应;Hj,p=1表示两个轨迹片段Tj和Tp在某一帧图像中同时出现;
步骤3,行人属性的自适应学习:
以正样本集和负样本集中的样本构建得到训练集利用训练集S对Triplet网络进行训练,Triplet网络由结构相同且共享权值的三个卷积神经网络组成,每个卷积神经网络的架构与步骤1中预训练的ResNet50神经网络架构相同,并设定网络损失函数为:
其中,f(A)表示A行人属性特征向量,表示利用步骤1得到的网络对样本处理得到的A行人预测属性特征向量,D(f(A),f(B))表示A行人属性特征向量和B行人属性特征向量之间的欧式平方距离,表示A行人属性特征向量和其预测属性特征向量之间的欧式平方距离,α为原始Triplet损失函数中的阈值参数,取值为1,为新阈值参数,取值为0.1;这里,A和B分别代指或
步骤4,行人再识别:
利用步骤3得到的网络分别对目标视频集的待检索行人图片和测试图片提取行人特征,然后对得到的待检索图片与测试图片的行人特征之间做相似性度量,距离最小的测试图片中的特征对应的标记行人即为待测行人,或者距离小于阈值的所有特征根据标签进行投票,票数最多的特征对应的标记行人即为待测行人;所述的相似性度量包括计算欧式距离、余弦距离、曼哈顿距离或巴氏距离;所述的阈值由实验确定,取值范围在0.1~0.3之间。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910927014.0A CN110728216A (zh) | 2019-09-27 | 2019-09-27 | 一种基于行人属性自适应学习的无监督行人再识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910927014.0A CN110728216A (zh) | 2019-09-27 | 2019-09-27 | 一种基于行人属性自适应学习的无监督行人再识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110728216A true CN110728216A (zh) | 2020-01-24 |
Family
ID=69218564
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910927014.0A Pending CN110728216A (zh) | 2019-09-27 | 2019-09-27 | 一种基于行人属性自适应学习的无监督行人再识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110728216A (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111598004A (zh) * | 2020-05-18 | 2020-08-28 | 北京星闪世图科技有限公司 | 一种渐进增强自学习的无监督跨领域行人再识别方法 |
CN111626194A (zh) * | 2020-05-26 | 2020-09-04 | 佛山市南海区广工大数控装备协同创新研究院 | 一种使用深度关联度量的行人多目标跟踪方法 |
CN111914730A (zh) * | 2020-07-28 | 2020-11-10 | 上海工程技术大学 | 一种基于联合时空采样的无监督视频序列行人再识别方法 |
CN112001353A (zh) * | 2020-09-03 | 2020-11-27 | 杭州云栖智慧视通科技有限公司 | 一种基于多任务联合监督学习的行人再识别方法 |
CN112818175A (zh) * | 2021-02-07 | 2021-05-18 | 中国矿业大学 | 一种厂区工作人员搜索方法及人员识别模型的训练方法 |
CN113705439A (zh) * | 2021-08-27 | 2021-11-26 | 中山大学 | 基于弱监督和度量学习的行人属性识别方法 |
CN114612927A (zh) * | 2020-12-09 | 2022-06-10 | 四川大学 | 一种基于图像文本双通道联合的行人重识别方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107330396A (zh) * | 2017-06-28 | 2017-11-07 | 华中科技大学 | 一种基于多属性和多策略融合学习的行人再识别方法 |
AU2018100321A4 (en) * | 2018-03-15 | 2018-04-26 | Chen, Jinghan Mr | Person ReID method based on metric learning with hard mining |
WO2018196396A1 (zh) * | 2017-04-24 | 2018-11-01 | 清华大学 | 基于一致性约束特征学习的行人再识别方法 |
CN108875487A (zh) * | 2017-09-29 | 2018-11-23 | 北京旷视科技有限公司 | 行人重识别网络的训练及基于其的行人重识别 |
CN109101865A (zh) * | 2018-05-31 | 2018-12-28 | 湖北工业大学 | 一种基于深度学习的行人重识别方法 |
CN109948561A (zh) * | 2019-03-25 | 2019-06-28 | 广东石油化工学院 | 基于迁移网络的无监督图像视频行人重识别的方法及系统 |
-
2019
- 2019-09-27 CN CN201910927014.0A patent/CN110728216A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018196396A1 (zh) * | 2017-04-24 | 2018-11-01 | 清华大学 | 基于一致性约束特征学习的行人再识别方法 |
CN107330396A (zh) * | 2017-06-28 | 2017-11-07 | 华中科技大学 | 一种基于多属性和多策略融合学习的行人再识别方法 |
CN108875487A (zh) * | 2017-09-29 | 2018-11-23 | 北京旷视科技有限公司 | 行人重识别网络的训练及基于其的行人重识别 |
AU2018100321A4 (en) * | 2018-03-15 | 2018-04-26 | Chen, Jinghan Mr | Person ReID method based on metric learning with hard mining |
CN109101865A (zh) * | 2018-05-31 | 2018-12-28 | 湖北工业大学 | 一种基于深度学习的行人重识别方法 |
CN109948561A (zh) * | 2019-03-25 | 2019-06-28 | 广东石油化工学院 | 基于迁移网络的无监督图像视频行人重识别的方法及系统 |
Non-Patent Citations (4)
Title |
---|
SHUN ZHANG等: "Deep Metric Learning with Improved Triplet Loss for Face Clustering in Videos" * |
SHUN ZHANG等: "Person Re-Identification With Joint Verification and Identification of Identity-Attribute Labels" * |
SHUN ZHANG等: "Tracking Persons-of-Interest via Unsupervised Representation Adaptation" * |
王兴柱;王儒敬;: "三元组在非监督行人再识别中的应用" * |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111598004B (zh) * | 2020-05-18 | 2023-12-08 | 江苏星闪世图科技(集团)有限公司 | 一种渐进增强自学习的无监督跨领域行人再识别方法 |
CN111598004A (zh) * | 2020-05-18 | 2020-08-28 | 北京星闪世图科技有限公司 | 一种渐进增强自学习的无监督跨领域行人再识别方法 |
CN111626194A (zh) * | 2020-05-26 | 2020-09-04 | 佛山市南海区广工大数控装备协同创新研究院 | 一种使用深度关联度量的行人多目标跟踪方法 |
CN111626194B (zh) * | 2020-05-26 | 2024-02-02 | 佛山市南海区广工大数控装备协同创新研究院 | 一种使用深度关联度量的行人多目标跟踪方法 |
CN111914730B (zh) * | 2020-07-28 | 2023-11-24 | 上海工程技术大学 | 一种基于联合时空采样的无监督视频序列行人再识别方法 |
CN111914730A (zh) * | 2020-07-28 | 2020-11-10 | 上海工程技术大学 | 一种基于联合时空采样的无监督视频序列行人再识别方法 |
CN112001353A (zh) * | 2020-09-03 | 2020-11-27 | 杭州云栖智慧视通科技有限公司 | 一种基于多任务联合监督学习的行人再识别方法 |
CN112001353B (zh) * | 2020-09-03 | 2023-02-17 | 杭州云栖智慧视通科技有限公司 | 一种基于多任务联合监督学习的行人再识别方法 |
CN114612927A (zh) * | 2020-12-09 | 2022-06-10 | 四川大学 | 一种基于图像文本双通道联合的行人重识别方法 |
CN114612927B (zh) * | 2020-12-09 | 2023-05-09 | 四川大学 | 一种基于图像文本双通道联合的行人重识别方法 |
CN112818175B (zh) * | 2021-02-07 | 2023-09-01 | 中国矿业大学 | 一种厂区工作人员搜索方法及人员识别模型的训练方法 |
CN112818175A (zh) * | 2021-02-07 | 2021-05-18 | 中国矿业大学 | 一种厂区工作人员搜索方法及人员识别模型的训练方法 |
CN113705439B (zh) * | 2021-08-27 | 2023-09-08 | 中山大学 | 基于弱监督和度量学习的行人属性识别方法 |
CN113705439A (zh) * | 2021-08-27 | 2021-11-26 | 中山大学 | 基于弱监督和度量学习的行人属性识别方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110728216A (zh) | 一种基于行人属性自适应学习的无监督行人再识别方法 | |
CN109961051B (zh) | 一种基于聚类和分块特征提取的行人重识别方法 | |
US10248860B2 (en) | System and method for object re-identification | |
CN111709311B (zh) | 一种基于多尺度卷积特征融合的行人重识别方法 | |
CN107016357B (zh) | 一种基于时间域卷积神经网络的视频行人检测方法 | |
CN108520226B (zh) | 一种基于躯体分解和显著性检测的行人重识别方法 | |
CN110717411A (zh) | 一种基于深层特征融合的行人重识别方法 | |
CN111126360A (zh) | 基于无监督联合多损失模型的跨域行人重识别方法 | |
CN110580460A (zh) | 基于行人身份和属性特征联合识别验证的行人再识别方法 | |
CN111027421A (zh) | 一种基于图的直推式半监督行人再识别方法 | |
CN108960047B (zh) | 基于深度二次树的视频监控中人脸去重方法 | |
CN110633632A (zh) | 一种基于循环指导的弱监督联合目标检测和语义分割方法 | |
CN109902612B (zh) | 一种基于无监督学习的监控视频异常检测方法 | |
CN110807434A (zh) | 一种基于人体解析粗细粒度结合的行人重识别系统及方法 | |
CN111339975A (zh) | 基于中心尺度预测与孪生神经网络的目标检测识别跟踪方法 | |
CN108875754A (zh) | 一种基于多深度特征融合网络的车辆再识别方法 | |
CN111967433A (zh) | 一种基于自监督学习网络的动作识别办法 | |
CN115527269B (zh) | 一种人体姿态图像智能识别方法及系统 | |
CN113642482A (zh) | 一种基于视频时空上下文的视频人物关系分析方法 | |
CN107679467B (zh) | 一种基于hsv和sdalf的行人重识别算法实现方法 | |
Megha et al. | Intelligent optimization of latent fingerprint image segmentation using stacked convolutional autoencoder | |
Elbaşi | Fuzzy logic-based scenario recognition from video sequences | |
Chang et al. | Robust abandoned object detection and analysis based on online learning | |
Weng et al. | Crowd density estimation based on a modified multicolumn convolutional neural network | |
CN115393788A (zh) | 一种基于增强全局信息注意力的多尺度监控行人重识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20200124 |
|
WD01 | Invention patent application deemed withdrawn after publication |