CN108596211A - 一种基于集中学习与深度网络学习的遮挡行人再识别方法 - Google Patents
一种基于集中学习与深度网络学习的遮挡行人再识别方法 Download PDFInfo
- Publication number
- CN108596211A CN108596211A CN201810269305.0A CN201810269305A CN108596211A CN 108596211 A CN108596211 A CN 108596211A CN 201810269305 A CN201810269305 A CN 201810269305A CN 108596211 A CN108596211 A CN 108596211A
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- image
- block
- classification
- depth
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 23
- 230000000903 blocking effect Effects 0.000 claims abstract description 39
- 238000012549 training Methods 0.000 claims abstract description 31
- 238000000605 extraction Methods 0.000 claims abstract description 17
- 239000000203 mixture Substances 0.000 claims abstract description 4
- 238000012216 screening Methods 0.000 claims description 3
- 230000000873 masking effect Effects 0.000 claims description 2
- 230000000644 propagated effect Effects 0.000 claims description 2
- 238000002474 experimental method Methods 0.000 abstract description 4
- 230000006870 function Effects 0.000 description 33
- 230000000694 effects Effects 0.000 description 8
- 230000008901 benefit Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000004888 barrier function Effects 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000012876 topography Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于集中学习与深度网络学习的遮挡行人再识别方法,该方法通过遮挡模拟器从原始未遮挡训练样本生成多种类型遮挡训练样本,生成的遮挡训练样本与原始训练样本组成联合训练集用于模型的训练,同时添加遮挡与非遮挡分类损失到行人分类损失中去,用多任务损失函数代替以往的单任务损失函数,有效地应对遮挡下行人再识别的问题,使得深度网络学习特征的时候考虑遮挡与非遮挡的先验信息进行特征的提取。实验表明,本发明能较大幅度地提高现有的深度网络在遮挡行人再识别上的性能,具有广泛的应用价值。
Description
技术领域
本发明涉及一种针对遮挡问题的行人再识别方法,更具体地,涉及一种基于集中学习与深度网络学习的遮挡行人再识别方法。
背景技术
行人再识别任务是在一个摄像头下识别出另一个摄像头出现的同一个目标对象。其中,遮挡问题是行人再识别中亟待解决的重点问题。行人遮挡一般会出现在人群密集或者建设复杂的场景,而这些场景往往是事故多发地,比如,一个嫌疑犯在密集区域可能被行人或者其他物体如汽车、行李、路牌等遮挡到。在这种情况下摄像头拍摄得到的是带有遮挡的行人图像,我们需要在行人库或其他摄像头下搜索这个完整的行人,就是遮挡的行人再识别任务。因此,研究遮挡的行人再识别在现实的公共安全应用中尤为重要。
传统的行人再识别的研究工作主要可以分为两个方面,分别是特征提取和度量学习。特征提取是为了得到具有鲁棒性和判别性的特征,使得特征对于光照、角度等变化能够有较好的不变性;度量学习是为了学习匹配的度量方法或投影的子空间使得同类样本距离更近,不同类样本距离更远。近年来,深度学习方法也被应用于行人再识别的任务中,主要网络结构可以分为三种,分别是分类网络、Siamese网络和Triplet网络。分类网络是将行人再识别问题当作分类问题,这种网络可以提取到有判别性的特征达到较好的行人再识别效果。Siamese网络通过计算两个相邻图像对的相似度来学习一个度量标准判断两张图像是否属于同一行人。Triplet网络是Siamese网络的一种扩展形式,输入是每组三个样本,通过计算三个样本之间的相似度来对网络进行训练和约束。
尽管行人再识别研究工作已得到较好的发展,但是现有技术几乎都是不考虑遮挡的情况下进行行人再识别,很少针对遮挡的行人图像来建立模型。遮挡部分给提取的图像特征带来了干扰,导致在实际应用中遇到遮挡情况的行人再识别效果不佳。
发明内容
本发明针对遮挡的行人再识别,即实现遮挡行人图像对行人库中或者其他摄像头下未遮挡行人图像的搜索,提出一种基于集中学习与深度网络学习的遮挡行人再识别方法,该方法具有较好的鲁棒性。
本发明的目的通过以下的技术方案实现:一种基于集中学习与深度网络学习的遮挡行人再识别方法,包括步骤:
S1.建立一个遮挡模拟器,从原始的未遮挡行人图像中生成各种不同类型遮挡的行人图像,生成的遮挡行人图像组成遮挡行人集合。该集合用于为深度学习模型的训练提供大量可靠的数据来源;
S2.将生成的遮挡行人图像与原始完整的行人图像合并,联合训练一个带有多任务损失函数的深度网络,即集中学习框架(AFPB),在这个框架下,深度网络通过不断前向传播和后向调整,实现对图像中行人部位提取特征并再进行分类的功能。训练直至深度网络的参数收敛得到网络模型;
S3.为了减少跨数据集以及模拟数据带来的影响,在步骤S2得到的网络模型的基础上进一步训练真实的遮挡行人图像和非遮挡行人图像,得到最后的网络模型;
S4.使用步骤S3中得到的网络模型对目标行人图像及行人图像库中的行人图像分别进行特征的提取,然后将从目标行人图像中提取的特征依次与从图像库中的行人图像中提取的特征进行匹配,基于匹配的结果确定目标行人图像的身份。
优选的,所述步骤S1中,建立一个遮挡模拟器,从原始的未遮挡行人图像中生成各种不同类型遮挡的行人图像,步骤是:
(1-1)首先设置遮挡比例范围,计算原始未遮挡行人图像面积及遮挡面积范围,随机选取遮挡面积范围中一数值为遮挡面积;
(1-2)然后选取原始图像中一背景块,缩放到遮挡面积大小,得到遮挡块;
(1-3)将遮挡块覆盖在原始图像的任意位置,生成遮挡行人图像;
(1-4)不断随机选取原始行人图像,重复迭代(1-1)、(1-2)、(1-3),直至生成遮挡行人图像满足数量要求为止。
优选的,所述步骤S2中的深度网络为ResNet-50深度网络,用softmax作为分类损失,每个行人作为一个类别,根据输入的图像以及类标进行训练模型。
优选的,所述步骤S3中,训练真实的遮挡行人图像和非遮挡行人图像是指在原行人分类损失判别的基础上加入遮挡与非遮挡二分类损失判别,遮挡与非遮挡二分类分类器是用于判断图像是属于遮挡行人图像还是非遮挡行人图像,训练的时候会给出图像类标,如果是遮挡行人图像则类标为0,如果是非遮挡行人图像则类标为1。因此,可实现在判断输入图像是非为遮挡图像的前提下对遮挡行人进行再识别。
具体的,设原有的行人分类损失函数LP表示为:
其中,K表示行人类别的总数,k是其中的某个类别,是表示第i个样本属于第k个类别的预测值。行人加入的遮挡与非遮挡二分类损失函数LO表示为:
其中,C表示二分类的类别,c=0表示遮挡行人图像的类别,c=1表示非遮挡行人图像的类别,是表示第i个样本属于遮挡或者非遮挡行人图像的预测值。上面两个分类损失函数分别赋予不同的权重,组成最后的多任务损失函数,用公式表达为:
其中,α是用来平衡行人分类损失函数和遮挡与非遮挡二分类损失函数之间权重的超参数,α的取值范围在0到1之间。通过设置α,可以保证将行人分类作为主要任务,而遮挡与非遮挡二分类作为辅助的先验知识用于帮助行人分类的判断。
本发明与现有技术相比,具有如下优点和有益效果:
1、本发明基于深度网络的分类网络解决行人再识别问题,提出了集中学习的框架(Attention Framework of Person Body,AFPB),其框架有两个实现的关键部分,分别是遮挡模拟器和多任务损失函数,联合这两部分可以实现对遮挡图像和未遮挡图像中行人部位的集中学习。该方法学习到的模型可以聚焦到遮挡行人图像和未遮挡行人图像中的行人部分,并对其进行特征提取,对遮挡的行人再识别有较好的鲁棒性。
2、本发明遮挡模拟器的优势在于生成遮挡行人图像的多样性和真实性,贴近现实,解决了遮挡行人图像缺乏的难题。由于每张原始图像的背景不同,选取背景块保证了每张图像生成的遮挡块的颜色和纹理也各不相同;再者,转换为随机面积的长方形块及长方形块的长宽不固定,使得生成的遮挡块的大小和形状各不相同;同时,随机选取位置遮挡也实现遮挡位置的多样性。因此,遮挡模拟器较为真实地模拟了实际遮挡情况,符合遮挡物颜色、纹理、大小、形状、位置多样性的特点。生成的遮挡行人图像组成遮挡行人集合Z,为深度学习模型的训练提供了大量可靠的数据来源。
3、本发明添加遮挡与非遮挡分类损失到行人分类损失中去,用多任务损失函数代替以往的单任务损失函数,这样有效地应对遮挡的行人再识别问题,使得深度网络学习特征的时候会考虑遮挡与非遮挡的先验信息再进行特征的提取。实验表明,本发明相比于现有其他提取行人特征的方法能有效地处理遮挡行人图像的特征提取,较大幅度地提高现有的深度网络在遮挡行人再识别任务上的性能,具有广泛的应用价值。
附图说明
图1为本发明的方法的实施示意图。
图2为Occluded-REID和Partial-REID数据库的示例图。
具体实施方式
附图仅用于示例性说明,不能理解为对本专利的限制;下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此。
实施例
如图1所示,本实施例一种基于集中学习与深度网络学习的遮挡行人再识别方法,具体包括以下步骤:
S1.先由原始的行人图像(未遮挡行人图像),通过遮挡模拟器,生成对应的遮挡行人图像。
这里所述的原始的行人图像来自现有行人再识别数据库,是不带任何遮挡物的行人图像。用X表示未遮挡行人图像的集合,集合包含M个行人共N张图像,X等于其中表示第i个行人的第j张图像,yi表示行人的类标,遮挡模拟器实现一个图像到图像的映射F;X→Z,其中Z表示的是遮挡行人图像的集合,用表示,其中是由对应生成的遮挡行人图像。
生成遮挡行人图像的步骤是:
(1-1)随机选取原始行人图像集合X中一行人图像I,类标为y,计算图像I面积为SI。
(1-2)设置遮挡面积占据原始图像面积的比例范围为[r1,r2],并计算遮挡面积的范围为[SI×r1,SI×r2],从中随机选取一个数值SO作为遮挡块的面积大小。
(1-3)选取原始行人图像背景块Sb,大小为s×s,并把背景块转换面积为SO的长方形块,长宽组合随机,然后覆盖在原始图像的任一位置上,得到覆盖后的图像I*。图像I*即为遮挡模拟器生成的遮挡行人图像,记为与I相同的类标y,表示同一个行人。
通过遮挡模拟器的多次生成,可以得到大量的不同遮挡类型(颜色、纹理、大小、形状、位置)的图像。这些遮挡行人图像可以组成遮挡行人图像的集合,较为真实模拟了多种情况的遮挡,提供了遮挡行人图像的数据。
S2.将原始的未遮挡行人图像集合X与遮挡模拟器生成的遮挡行人图像集合Z合并,用于联合训练一个适用于遮挡行人再识别任务的模型。
选取用于行人再识别的基础深度网络是ResNet-50,用softmax作为分类损失,每个行人作为一个类别,根据输入的图像以及类标进行训练模型。深度网络的作用是相当于学习产生一个特征的提取器h(·),然后网络中的分类器f(·)再对这些提取到的特征分类判别,使得判别得到的行人类标更接近真实的结果。如果只有原始图像集合X参与网络训练,LP(·)为softmax分类损失函数,则目标函数表示为
联合生成的遮挡行人图像与原始的未遮挡行人图像参与网络训练,目标函数表示为
训练过程中,目标函数使得h(xi)和h(zi)都更加接近真实的类标yi,从而使得h(xi)和h(zi)更相近,训练直到深度网络收敛。通过联合训练,减少了遮挡行人图像的特征与未遮挡行人图像的特征的差距,有利于模型用于特征的提取以及特征提取后行人的匹配。
S3.为了减少跨数据集以及模拟数据带来的影响,需要再在S2得到的网络模型的基础上训练真实的遮挡行人图像和非遮挡行人图像,这就需要用到真实数据集(Occluded-REID遮挡行人数据集和Partial-REID遮挡行人数据集)的样本。用真实的遮挡行人图像与非遮挡行人图像训练一个带有多任务损失函数的深度网络,经过迭代直至深度网络的参数收敛,得到最后的网络模型。
本实施例中,对深度网络的损失函数进行改进,提出用多任务损失函数代替原来的单任务损失函数。原来的单任务损失函数是指对行人分类的损失函数,表示为:
但是单任务损失函数对于有无存在遮挡无法进行判别,因此得到的模型效果不佳。考虑加入另一任务损失函数,即遮挡与非遮挡二分类损失函数,表示为:
遮挡与非遮挡二分类损失函数可以协助行人分类器判断输入的图像是否存在遮挡,在此先验信息的基础上更好实现行人分类。最后的多任务损失函数表示为:
其中α是用来平衡行人分类损失函数和遮挡与非遮挡二分类损失函数之间权重的超参数,α的取值范围在0到1之间。依据任务的需要,一般设置α≥0.5,这样才能保证行人分类作为主要任务,而遮挡与非遮挡二分类作为辅助的先验知识用于帮助行人分类的判断。
用遮挡行人图像与非遮挡行人图像训练一个带有多任务损失函数的深度网络,这就是提出的集中学习框架(AFPB)。在这个框架下,深度网络通过不断前向传播和后向调整,可以实现集中图像中行人部位提取特征再进行分类的功能。训练直至深度网络的参数收敛得到网络模型。
S4.使用S3中得到的网络模型对目标行人图像及行人图像库中的行人图像分别进行特征的提取,然后将从目标行人图像中提取的特征依次与从图像库中的行人图像中提取的特征进行匹配,基于匹配的结果确定目标行人图像的身份。
本发明采取基于集中学习框架(AFPB)的深度网络进行参数优化和更新。给定原始训练样本,通过集中学习框架中的遮挡模拟器模块生成大量遮挡的训练样本,然后原始训练样本和遮挡训练样本联合训练一个带有多任务分类损失函数的深度网络,迭代反复,直到网络参数最终彻底收敛为止。通过这样的训练,深度网络在大量样本学习中以及遮挡分类判断的前提下集中学习样本中未被遮挡的行人部分,有效地解决了遮挡行人再识别问题中遮挡物带来的信息干扰,有效地解决行人再识别中的遮挡问题。
本实施例通过实验对方法的效果进行说明,实验数据库选择Occluded-REID遮挡行人数据库和Partial-REID遮挡行人数据库:其中Occluded-REID遮挡行人数据库包含200个不同的行人,共2000张图像,其中每个行人有5张不同类型遮挡行人图像和5张未遮挡行人图像。实验将遮挡行人图像作为目标行人图像,将未遮挡行人图像作为行人图像库,选择其中100个行人的图像组成训练集,剩余的100个行人则作为测试集;Partial-REID遮挡行人数据库包含60个不同行人的超过900张的图像,其中每个行人有5张不同类型遮挡的图像、5张截去遮挡的局部图像和5张全身未遮挡的图像。选择其中30人进行训练,剩余30人进行测试。Occluded-REID遮挡行人数据库和Partial-REID遮挡行人数据库的实例如图2所示。
本发明选择ResNet-50作为初始化网络,在Occluded-REID和Partial-REID数据库上验证所提方法的有效性。实验结果如表1所示:
表1本发明提升ResNet-50深度网络的性能结果
深度网络/数据集 | Occluded-REID识别率 | Partial-REID识别率 |
ResNet-50 | 57.27% | 69.82% |
ResNet-50+AFPB | 68.14% | 78.52% |
可以看到,在加入了集中学习框架(AFPB)之后,ResNet-50网络在Occluded-REID数据库上的准确率提升了10.9%,在Partial-REID数据库上的准确率提升了8.7%。
进一步地,在Occluded-REID数据库和Partial-REID数据库上验证集中学习框架中的遮挡模拟器和多任务损失函数部分的有效性,如表2所示:
表2本发明各部分的效果
由表2可得,加入了遮挡模拟器分别提高了6.7%和4.5%的识别准确率,替换了多任务损失函数分别提高了1.9%和1.9%的识别准确率,两者结合能达到更好的效果。
本实施例还将本发明的方法与现有的一些主流的基于传统描述子和深度网络的方法进行了比较,在Occluded-REID数据库上的比较结果如表3所示,而在Partial-REID数据库上的比较结果如表4所示,通过以上比较结果可知,ResNet-50网络在加入了集中学习框架(AFPB)之后,对遮挡行人再识别问题的识别准确率已经达到了领域先进水平。
表3本发明在Occluded-REID数据库与主流算法比较结果
表4本发明在Partial-REID数据库与主流算法比较结果
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。
Claims (5)
1.一种基于集中学习与深度网络学习的遮挡行人再识别方法,其特征在于,包括步骤:
S1.建立一个遮挡模拟器,从原始的未遮挡行人图像中生成各种不同类型遮挡的行人图像,生成的遮挡行人图像组成遮挡行人集合;
S2.将生成的遮挡行人图像与原始完整的行人图像合并,联合训练一个带有多任务损失函数的深度网络,即集中学习框架,在这个框架下,深度网络通过不断前向传播和后向调整,实现对图像中行人部位提取特征并再进行分类的功能;训练直至深度网络的参数收敛得到网络模型;
S3.在步骤S2得到的网络模型的基础上进一步训练真实的遮挡行人图像和非遮挡行人图像,得到最后的网络模型;
S4.使用步骤S3中得到的网络模型对目标行人图像及行人图像库中的行人图像分别进行特征的提取,然后将从目标行人图像中提取的特征依次与从图像库中的行人图像中提取的特征进行匹配,基于匹配的结果确定目标行人图像的身份。
2.根据权利要求1所述的基于集中学习与深度网络学习的遮挡行人再识别方法,其特征在于,所述步骤S1中,建立一个遮挡模拟器,从原始的未遮挡行人图像中生成各种不同类型遮挡的行人图像,步骤是:
(1-1)首先设置遮挡比例范围,计算原始未遮挡行人图像面积及遮挡面积范围,随机选取遮挡面积范围中一数值为遮挡面积;
(1-2)然后选取原始图像中一背景块,缩放到遮挡面积大小,得到遮挡块;
(1-3)将遮挡块覆盖在原始图像的任意位置,生成遮挡行人图像;
(1-4)不断随机选取原始行人图像,重复迭代(1-1)、(1-2)、(1-3),直至生成遮挡行人图像满足数量要求为止。
3.根据权利要求1所述的基于集中学习与深度网络学习的遮挡行人再识别方法,其特征在于,所述步骤S2中的深度网络为ResNet-50深度网络,用softmax作为分类损失,每个行人作为一个类别,根据输入的图像以及类标进行训练模型。
4.根据权利要求1所述的基于集中学习与深度网络学习的遮挡行人再识别方法,其特征在于,所述步骤S3中,训练真实的遮挡行人图像和非遮挡行人图像是指在原行人分类损失判别的基础上加入遮挡与非遮挡二分类损失判别,遮挡与非遮挡二分类分类器是用于判断图像是属于遮挡行人图像还是非遮挡行人图像,训练的时候会给出图像类标,如果是遮挡行人图像则类标为0,如果是非遮挡行人图像则类标为1。
5.根据权利要求4所述的基于集中学习与深度网络学习的遮挡行人再识别方法,其特征在于,设原有的行人分类损失函数LP表示为:
其中,K表示行人类别的总数,k是其中的某个类别,是表示第i个样本属于第k个类别的预测值;行人加入的遮挡与非遮挡二分类损失函数LO表示为:
其中,C表示二分类的类别,c=0表示遮挡行人图像的类别,c=1表示非遮挡行人图像的类别,是表示第i个样本属于遮挡或者非遮挡行人图像的预测值;上面两个分类损失函数分别赋予不同的权重,组成最后的多任务损失函数,用公式表达为:
其中,α是用来平衡行人分类损失函数和遮挡与非遮挡二分类损失函数之间权重的超参数,α的取值范围在0到1之间。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810269305.0A CN108596211B (zh) | 2018-03-29 | 2018-03-29 | 一种基于集中学习与深度网络学习的遮挡行人再识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810269305.0A CN108596211B (zh) | 2018-03-29 | 2018-03-29 | 一种基于集中学习与深度网络学习的遮挡行人再识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108596211A true CN108596211A (zh) | 2018-09-28 |
CN108596211B CN108596211B (zh) | 2020-08-28 |
Family
ID=63624936
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810269305.0A Active CN108596211B (zh) | 2018-03-29 | 2018-03-29 | 一种基于集中学习与深度网络学习的遮挡行人再识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108596211B (zh) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109522855A (zh) * | 2018-11-23 | 2019-03-26 | 广州广电银通金融电子科技有限公司 | 结合ResNet和SENet的低分辨率行人检测方法、系统及存储介质 |
CN109598191A (zh) * | 2018-10-23 | 2019-04-09 | 北京市商汤科技开发有限公司 | 行人重识别残差网络训练方法及装置 |
CN109635634A (zh) * | 2018-10-29 | 2019-04-16 | 西北大学 | 一种基于随机线性插值的行人再识别数据增强方法 |
CN109670528A (zh) * | 2018-11-14 | 2019-04-23 | 中国矿业大学 | 面向行人重识别任务的基于成对样本随机遮挡策略的数据扩充方法 |
CN110070505A (zh) * | 2019-04-12 | 2019-07-30 | 北京迈格威科技有限公司 | 增强图像分类模型噪声鲁棒性的方法和装置 |
CN110334588A (zh) * | 2019-05-23 | 2019-10-15 | 北京邮电大学 | 基于局部特征注意网络的亲属关系识别方法及装置 |
CN110378278A (zh) * | 2019-07-16 | 2019-10-25 | 北京地平线机器人技术研发有限公司 | 神经网络的训练方法、对象搜索方法、装置以及电子设备 |
CN110956158A (zh) * | 2019-12-12 | 2020-04-03 | 中山大学 | 一种基于教师学生学习框架的遮挡行人再标识方法 |
CN111476070A (zh) * | 2019-01-24 | 2020-07-31 | 深圳市商汤科技有限公司 | 图像处理方法、装置、电子设备以及计算机可读存储介质 |
CN111860431A (zh) * | 2020-07-30 | 2020-10-30 | 浙江大华技术股份有限公司 | 图像中对象的识别方法和装置、存储介质及电子装置 |
CN112149542A (zh) * | 2020-09-15 | 2020-12-29 | 北京字节跳动网络技术有限公司 | 训练样本生成方法、图像分类方法、装置、设备和介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105574505A (zh) * | 2015-12-16 | 2016-05-11 | 深圳大学 | 一种多摄像机间人体目标再识别的方法及系统 |
US9430697B1 (en) * | 2015-07-03 | 2016-08-30 | TCL Research America Inc. | Method and system for face recognition using deep collaborative representation-based classification |
US20170243058A1 (en) * | 2014-10-28 | 2017-08-24 | Watrix Technology | Gait recognition method based on deep learning |
CN107145845A (zh) * | 2017-04-26 | 2017-09-08 | 中山大学 | 基于深度学习及多特征点融合的行人检测方法 |
CN107273872A (zh) * | 2017-07-13 | 2017-10-20 | 北京大学深圳研究生院 | 用于图像或视频中行人重识别的深度判别网络模型方法 |
CN107832672A (zh) * | 2017-10-12 | 2018-03-23 | 北京航空航天大学 | 一种利用姿态信息设计多损失函数的行人重识别方法 |
-
2018
- 2018-03-29 CN CN201810269305.0A patent/CN108596211B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170243058A1 (en) * | 2014-10-28 | 2017-08-24 | Watrix Technology | Gait recognition method based on deep learning |
US9430697B1 (en) * | 2015-07-03 | 2016-08-30 | TCL Research America Inc. | Method and system for face recognition using deep collaborative representation-based classification |
CN105574505A (zh) * | 2015-12-16 | 2016-05-11 | 深圳大学 | 一种多摄像机间人体目标再识别的方法及系统 |
CN107145845A (zh) * | 2017-04-26 | 2017-09-08 | 中山大学 | 基于深度学习及多特征点融合的行人检测方法 |
CN107273872A (zh) * | 2017-07-13 | 2017-10-20 | 北京大学深圳研究生院 | 用于图像或视频中行人重识别的深度判别网络模型方法 |
CN107832672A (zh) * | 2017-10-12 | 2018-03-23 | 北京航空航天大学 | 一种利用姿态信息设计多损失函数的行人重识别方法 |
Non-Patent Citations (2)
Title |
---|
EJAZ AHMED 等: "An Improved Deep Learning Architecture for Person Re-Identification", 《CVPR 2016》 * |
齐美彬: "基于多特征子空间与核学习的行人再识别", 《自动化学报》 * |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109598191A (zh) * | 2018-10-23 | 2019-04-09 | 北京市商汤科技开发有限公司 | 行人重识别残差网络训练方法及装置 |
CN109635634B (zh) * | 2018-10-29 | 2023-03-31 | 西北大学 | 一种基于随机线性插值的行人再识别数据增强方法 |
CN109635634A (zh) * | 2018-10-29 | 2019-04-16 | 西北大学 | 一种基于随机线性插值的行人再识别数据增强方法 |
CN109670528A (zh) * | 2018-11-14 | 2019-04-23 | 中国矿业大学 | 面向行人重识别任务的基于成对样本随机遮挡策略的数据扩充方法 |
CN109670528B (zh) * | 2018-11-14 | 2023-04-18 | 中国矿业大学 | 面向行人重识别任务的基于成对样本随机遮挡策略的数据扩充方法 |
CN109522855A (zh) * | 2018-11-23 | 2019-03-26 | 广州广电银通金融电子科技有限公司 | 结合ResNet和SENet的低分辨率行人检测方法、系统及存储介质 |
CN111476070A (zh) * | 2019-01-24 | 2020-07-31 | 深圳市商汤科技有限公司 | 图像处理方法、装置、电子设备以及计算机可读存储介质 |
CN110070505A (zh) * | 2019-04-12 | 2019-07-30 | 北京迈格威科技有限公司 | 增强图像分类模型噪声鲁棒性的方法和装置 |
CN110334588A (zh) * | 2019-05-23 | 2019-10-15 | 北京邮电大学 | 基于局部特征注意网络的亲属关系识别方法及装置 |
CN110378278A (zh) * | 2019-07-16 | 2019-10-25 | 北京地平线机器人技术研发有限公司 | 神经网络的训练方法、对象搜索方法、装置以及电子设备 |
CN110956158A (zh) * | 2019-12-12 | 2020-04-03 | 中山大学 | 一种基于教师学生学习框架的遮挡行人再标识方法 |
CN111860431A (zh) * | 2020-07-30 | 2020-10-30 | 浙江大华技术股份有限公司 | 图像中对象的识别方法和装置、存储介质及电子装置 |
CN111860431B (zh) * | 2020-07-30 | 2023-12-12 | 浙江大华技术股份有限公司 | 图像中对象的识别方法和装置、存储介质及电子装置 |
CN112149542A (zh) * | 2020-09-15 | 2020-12-29 | 北京字节跳动网络技术有限公司 | 训练样本生成方法、图像分类方法、装置、设备和介质 |
Also Published As
Publication number | Publication date |
---|---|
CN108596211B (zh) | 2020-08-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108596211A (zh) | 一种基于集中学习与深度网络学习的遮挡行人再识别方法 | |
CN104166841B (zh) | 一种视频监控网络中指定行人或车辆的快速检测识别方法 | |
Wang et al. | Detection and localization of image forgeries using improved mask regional convolutional neural network | |
CN103942794B (zh) | 一种基于置信度的图像协同抠图方法 | |
CN107330396A (zh) | 一种基于多属性和多策略融合学习的行人再识别方法 | |
CN108875818A (zh) | 基于变分自编码机与对抗网络结合的零样本图像分类方法 | |
CN105224947B (zh) | 分类器训练方法和系统 | |
CN106096602A (zh) | 一种基于卷积神经网络的中文车牌识别方法 | |
CN107133569A (zh) | 基于泛化多标记学习的监控视频多粒度标注方法 | |
CN106933816A (zh) | 基于全局特征和局部特征的跨镜头目标检索系统及方法 | |
CN105404886A (zh) | 特征模型生成方法和特征模型生成装置 | |
CN109583305A (zh) | 一种基于关键部件识别和细粒度分类的车辆重识别的先进方法 | |
CN106557740B (zh) | 一种遥感图像中油库目标的识别方法 | |
CN106529415A (zh) | 结合特征和模型的道路检测方法 | |
CN109886242A (zh) | 一种行人重识别的方法及系统 | |
CN111754637B (zh) | 一种样本相似度抑制的大尺度三维人脸合成系统 | |
CN107330027A (zh) | 一种弱监督的深度台标检测方法 | |
Shi et al. | Decision-based black-box attack against vision transformers via patch-wise adversarial removal | |
CN104751463B (zh) | 一种基于草图轮廓特征的三维模型最佳视角选取方法 | |
Kowkabi et al. | Enhancing hyperspectral endmember extraction using clustering and oversegmentation-based preprocessing | |
CN111881716A (zh) | 一种基于多视角生成对抗网络的行人重识别方法 | |
CN103984954B (zh) | 基于多特征融合的图像合成方法 | |
CN105956570A (zh) | 基于唇部特征和深度学习的笑脸识别方法 | |
CN111191531A (zh) | 一种快速行人检测方法及系统 | |
CN107886110A (zh) | 人脸检测方法、装置及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
OL01 | Intention to license declared | ||
OL01 | Intention to license declared |