CN108921107A - 基于排序损失和Siamese网络的行人再识别方法 - Google Patents
基于排序损失和Siamese网络的行人再识别方法 Download PDFInfo
- Publication number
- CN108921107A CN108921107A CN201810736588.5A CN201810736588A CN108921107A CN 108921107 A CN108921107 A CN 108921107A CN 201810736588 A CN201810736588 A CN 201810736588A CN 108921107 A CN108921107 A CN 108921107A
- Authority
- CN
- China
- Prior art keywords
- loss
- pedestrian
- sequence
- siamese network
- identification
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
一种基于排序损失和Siamese网络的行人再识别方法,利用改进的Siamese网络学习特征,采用排序损失和两个SoftMax识别损失来来监督网络的学习。使用双向最大边界排序损失处理类内和类间相似度,这样学习到的特征具有更强的鲁棒性。利用行人图像的标签信息,采用Siamese网络提取的图像深度特征,区分检测到的行人。实验结果显示,与经典的行人再识别方法对比,所述基于排序损失和Siamese网络的行人再识别方法识别精度更高。
Description
技术领域
本发明涉及一种行人再识别方法,尤其涉及一种基于排序损失和Siamese网络的行人再识别方法。属于计算机视觉技术领域。
背景技术
行人再识别,是利用计算机视觉技术判断图像或者视频序列中是否存在特定行人的技术,识别出跨摄像头跨场景下的行人是否为同一个人。行人再识别的应用领域广泛,例如视频监控、城市监管、刑事安防等。近几年,行人再识别发展迅速,吸引了许多研究者。但是,行人再识别的研究仍然存在很大的挑战,主要困难在于行人图像是由远离目标的摄像设备采集的,不同摄像设备之间又存在差异,导致图像中行人的细节特征不明显。另一方面,由于服装或姿势的变化,行人图像的不同类别可能是相似的,但相同种类的行人图像并不是非常相似。如图1所示,Market-1501数据集的一些照片清楚地显示了上述困难的存在。
当前行人再识别研究大部分都是有监督学习方法,这些方法可以概括为3种:基于特征提取的方法,基于度量学习的方法和基于深度学习的方法。早期传统的行人再识别方法主要包括特征提取和度量学习,并且大都只关注其中的一个方面。
特征提取通过手工提取一个具有分辨力和鲁棒性的行人特征来解决行人再识别问题。常用的手工特征包括颜色特征,纹理特征,也有其他一些对多种特征组合的方法。但是手工特征大部分只能适用于某些情况下拍摄的图像,对于未考虑到的特殊情况无法很好的适用,需要较高的经验水平。并且随着行人再识别研究的进行,手工特征对识别率的提升变得越来越小。
鉴于手工特征研究中存在的问题和困难,度量学习的方法被应用于行人再识别问题。但是这种特征提取和度量学习相互独立的处理过程还是不能达到令人满意的效果,在拍照条件和环境差异较大时无法取得良好的效果,识别效果也不理想。
发明内容
针对有些不同行人图像之间比相同行人图像之间更相似所造成的行人再识别准确率较低的问题,本发明采用从排序角度基于深度学习的方法来解决行人再识别问题,对网络结构进行优化,提高识别精度。
一种基于排序损失和Siamese网络的行人再识别方法,利用改进的Siamese网络学习特征,采用排序损失和两个SoftMax识别损失来监督网络的学习。使用双向最大边界排序损失处理类内和类间相似度,这样学习到的特征具有更强的鲁棒性。利用行人图像的标签信息,采用siamese网络提取的图像深度特征,区分检测到的行人。实验结果显示,与经典的行人再识别方法对比,所述基于排序损失和Siamese网络的行人再识别方法识别精度更高。
本发明提出的一种基于Siamese网络结合识别损失和排序损失的行人再识别方法,包括以下步骤:
S1,视频采集设备实时采集视频数据;
S2,对所述视频数据进行行人检测,生成四元图像组;
S3,把四元图像组输入到改进的Siamese网络进行特征向量提取;所述改进的Siamese网络结合识别损失和排序损失监督网络在训练集上进行训练,并且通过正负样本对的相似度差值大于预定阈值,使得负例图像对之间的距离大于正例图像对;
S4,通过计算两个特征向量之间的距离来判断是否为同一行人,所述距离采用余弦相似度进行度量。
所述步骤S2中的所述四元图像组表示为:(Xp,Yp,Xn,Yn),其中Xp,Yp,Xn,Yn分别代表输入图像,(Xp,Yp)代表相同图像对,它们具有相同的类别标签,(Xn,Yn)代表其他图像对,(Xn,Yn)分别和(Xp,Yp)具有不相同的类别标签;并且,相同类图像之间的距离小于不同类图像之间的距离,即
Dis(Xp,Yp)<Dis(Xp,Yn) (2)
Dis(Yp,Xp)<Dis(Yp,Xn) (3)
其中Dis(*,*)代表距离度量,(Xp,Yp)为输入的正样例,(Xn,Yn)为输入的负样例。
所述步骤S3中的所述改进的Siamese网络包括两个经过训练的卷积神经网络(CNN)。
所述步骤S3中的所述改进的Siamese网络的目标函数包括第一识别损失、排序损失和第二识别损失;所述第一识别损失和第二识别损失均为SoftMax损失;所述SoftMax损失定义为:
其中,N代表样本的个数,C表示样本类别的种类数,pi表示SoftMax函数输出的C维的表示概率的列向量,yi表示样本,代表在样本yi的位置上的概率值;
所述排序损失采用双向最大边界排序损失函数进行度量;所述双向最大边界排序损失函数的公式为:
Lrank=max[0,m-(D(Xp,Yp)-D(Xp,Yp))]
+max[0,m-(D(Xp,Yp)-D(Yp,Xn))] (4)
其中m是最大损失边界,并且它的大小影响训练中收敛的速度和效率,Lrank为双向最大边界排序损失函数;D(*,*)表示余弦相似度的分数;图像的相似度越大则D(*,*)表示余弦相似度的分数越高;得到最终的排序损失公式Lrank`为:
其中m仍然是最大损失边界,并且它的大小影响训练中收敛的速度和效率,Lrank`为最终的双向最大边界排序损失函数;其中Xp,Yp,Xn,Yn分别代表输入图像,fXp,fYp,fXn,fYn分别代表输入图像的特征向量,||*||2代表L2规范化;
当正样本的相似性分数减去负样本的相似性分数大于m,则损失为0;通过改变m来调整两对图像之间相似度的约束强度。
所述步骤S4中的所述余弦相似度的公式为
其中||*||2代表L2规范化,xi和xj代表两个输入实例,fi和fj分别代表两个实例的特征向量,D(xi,xj)为两个实例之间的余弦相似度。
所述步骤S3中的改进的Siamese网络的目标函数最终为
其中,L1softmax表示第一识别损失,L2softmax表示第二识别损失,由于两个网络分支权重共享,因此这两个损失的权重相等,在加权求和时权重均为1,Lrank`表示为最终的双向最大边界排序损失,权重为μ;即Siamese网络的目标函数表示为排序损失和两种识别损失的加权求和,其中权值μ是为了权衡排序损失和两种识别损失之间的影响。
本发明的有益效果:
通过构建一个Siamese网络来解决行人再识别问题,为行人再识别问题提供端到端的解决方案,获得了良好的行人再识别效果;
所述基于排序损失和Siamese网络的行人再识别方法可以让计算机即使不看脸,也能通过衣物、发型、体态等信息,跨摄像头跨场景准确追踪到行人的位置。通过计算机视觉技术,在人脸被遮挡、距离过远时依旧可以从不同摄像机镜头中追踪行人;
所述基于排序损失和Siamese网络的行人再识别方法为人脸识别技术提供了重要补充,可以对无法获取清晰拍摄人脸的行人进行跨摄像头连续跟踪,增强数据的时空连续性;
所述基于排序损失和Siamese网络的行人再识别方法可以广泛应用于视频监控、智能安保、智能商业等领域,识别效果好。
附图说明
附图示出了本发明的示例性实施方式,并与其说明一起用于解释本发明的原理,其中包括了这些附图以提供对本发明的进一步理解,并且附图包括在本说明书中并构成本说明书的一部分。
图1是数据集中的行人图像;
图2是Siamese网络结构;
图3是伪孪生网络(pseudo-Siamese network)结构;
图4是特征映射后的聚类效果;
图5是基于排序损失和Siamese网络的行人再识别方法的网络结构。
具体实施方式
下面结合附图和实施方式对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施方式仅用于解释相关内容,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分。
需要说明的是,在不冲突的情况下,本发明中的实施方式及实施方式中的特征可以相互组合。下面将参考附图并结合实施方式来详细说明本发明。
Siamese网络即暹罗网络,也叫做孪生网络,通常用来对输入样本对之间的相似性进行度量,可以判断它们是否为相同类别。图2是Siamese网络结构。类似的还有伪孪生网络(pseudo-Siamese network),它的基本结构如图3所示。
Siamese网络结构主要用于比较两幅图像的相似度,将两个分支中的卷积和其他运算前移,得到两个图像的特征,然后计算特征向量之间的距离,确定它们是否属于同一个类。
由于行人再识别问题的特殊性,有些不同行人图像之间比相同行人图像之间反而更相似,简单使用Siamese网络会将不同行人图像误识别为相同行人图像,造成的行人再识别准确率较低的问题。本发明提出新的解决方案。
本发明通过构建一个新的Siamese网络来解决行人再识别问题,为行人再识别问题提供端到端的解决方案;使用网络结构更复杂、效果更好并且预训练过的CNN(convolutional neural network,卷积神经网络)架构来处理图像对,提高识别精度。对Siamese网络架构定义优化后的输入结构,使用新的排序损失来衡量图像之间的距离,并且正负样本的比例是固定的,以利于行人再识别。
本发明采用双向最大边缘排序损失函数,来解决行人再识别问题。以衡量两个图像之间的相似性。因此,所述双向最大边缘排序损失函数由三个部分组成:两个分支的识别损失和相似度损失。通过利用Siamese网络的特点,使同一类之间的特征距离小于不同类之间的距离。如图4所示,本发明使用Barnes-Hut t-SNE方法对特征进行可视化。本发明使用颜色特征用于行人再识别,采用颜色作为影响行人再识别的主要因素。并且对于视角的变化,本发明所采用的颜色特征具的鲁棒性,并且鲁棒性很强。
本发明使用新的排序损失函数可以很好地约束两幅图像之间的相似度,正例图像对之间的相似性比负例图像对之间的相似性更接近,并且,双向最大边界可以拉近正例图像对之间的距离,并且通过使得正负样本对的相似度差值大于预定阈值来推远负例图像对的距离。对于输入的行人图像数据,即使不包括行人脸部图像数据,也能够通过行人的衣物、发型、体态等信息,跨摄像头、跨场景地准确追踪行人的位置,实现行人再识别,从而通过计算机视觉技术,在人脸被遮挡、距离过远时依旧可以从不同摄像机镜头中追踪行人,提高了行人再识别系统的鲁棒性。
所述方法能够在无法获取清晰人脸图像的情况下,对行人进行跨摄像头连续跟踪。所述方法能够广泛应用于视频监控、智能安保或智能商业等领域。
改进的Siamese网络:
本发明的基于排序损失和Siamese网络的行人再识别方法的网络结构是在Siamese网络(孪生网络)结构的基础上进行的改进。所述改进的网络主要包括两个判别力很强的CNN(convolutional neural network,卷积神经网络)模型,并且结合了SoftMax识别损失和排序损失。网络结构如图5所示。网络输入是一个四元图像组,并且为了可以把图像输入网络,这些图像调整为224*224像素。CNN模型是AlexNet,VGGNet,或ResNet,或者是一个重新设计定义的网络结构。为了得到更好的结果和训练效率,采用已经在lmageNet数据集上预训练过的残差网络ResNet-50作为基准结构。为了使提出的模型可以在行人数据集上进行训练和预测,去掉ResNet-50结构中与最后的池化层相连的全连接层和结果预测层。然后在CNN模型后添加了用于防止过拟合的dropout(降采样)层和用于预测的1*1*2048*N的全连接层,其中1*1是卷积核的尺度,2048是特征维数,N是数据集的实例个数。之后连接SoftMax损失层,得到识别损失。该网络最后池化层的输出作为特征来对输入图像进行表示,并且用于后面的测试阶段。
排序损失函数:
通常用于两个特征向量之间距离度量的是欧氏距离。但是对于行人再识别问题来说,仅仅使用欧氏距离有时无法区分那些具有较大差异外观的相同行人图像。所以,在我们的研究中很有必要使用余弦相似度来评判特征向量的距离,即通过两个向量之间的夹角作为评判是否为同一行人的标准。余弦相似度的公式为
其中||*||2代表L2规范化,xi和xj代表两个输入实例,fi和fj分别代表两个实例的特征向量,D(xi,xj)为两个实例之间的余弦相似度。
排序损失函数通常在图像检索和图像文本匹配问题的研究中作为目标函数。为了更方便和有效率的把它应用到模型当中,假设有一个四元组输入:(Xp,Yp,Xn,Yn),其中(Xp,Yp)代表相同图像对,它们具有相同的类别标签,(Xn,Yn)代表其他图像对,(Xn,Yn)分别和(Xp,Yp)有不相同的类别标签。由此可以很明显的得到如下距离关系
Dis(Xp,Yp)<Dis(Xp,Yn) (2)
Dis(Yp,Xp)<Dis(Yp,Xn) (3)
其中Dis(*,*)代表距离度量,(Xp,Yp)为输入的正样例,(Xn,Yn)为输入的负样例,即相同类图像之间的距离应该是小于不同类图像之间的距离。
最后,由公式(2)和(3)所得到的距离之间的关系,我们引入双向最大边界排序损失函数作为排序损失,其公式表达为
Lrank=max[0,m-(D(Xp,Yp)-D(Xp,Yn))]
+max[0,m-(D(Xp,Yp)-D(Yp,Xn))] (4)
其中m是最大损失边界,并且它的大小影响训练中收敛的速度和效率,Lrank为双向最大边界排序损失函数。D(*,*)表示余弦相似度的分数,图像的相似度越大则这个分数会越高。我们希望正样本之间的距离小于负样本之间的距离,排序损失函数就是为了约束这种关系。
带入我们使用的余弦距离公式(1),得到最终的排序损失公式Lrank`为
在(4)中,当正样本的相似性分数减去负样本的大于m,则损失为0。可以通过改变m来调整两对图像之间相似度的约束强度。
目标函数:
在最后的目标函数中利用上述识别损失。通过两个50层的深度残差网络ResNet-50来产生对图像的特征表示,然后通过FC层(fully connected layers,全连接层)和SoftMax损失层产生每一类的概率。SoftMax损失定义为
其中,N代表样本的个数,C表示样本类别的种类数,pi表示SoftMax函数输出的C维的表示概率的列向量,代表在样本yi的位置上的概率值,它可以充分利用类别的信息。但只是使用SoftMax作为损失函数无法有效地对那些相似的不同类别图像进行训练。
为了学习到一个判别力好的特征,并且在这个特征空间中具有相同类标签的特征向量之间比具有不同类标签的特征向量距离更近,结合两种损失函数,得到最终的目标函数为
Lf=L1softmax+L2softmax+μLrank` (7)
其中,L1softmax表示第一识别损失,L2softmax表示第二识别损失,由于两个网络分支权重共享,因此这两个损失的权重相等,在加权求和时权重均为1,Lrank`表示为最终的双向最大边界排序损失,权重为μ;即Siamese网络的目标函数表示为排序损失和两种识别损失的加权求和,其中权值μ是为了权衡排序损失和两种识别损失之间的影响。
当μ=0时,只有识别损失产生作用。我们通过实验验证得到当μ=0.5,m=0.5可以取得较好的实验结果。
使用Matconvnet框架进行实现,在三个公开数据集Market-1501、CuHK03和DukeMTMC-reID上进行了实验,结果衡量指标采用第一命中率(Rank-1 Accuracy)和平均精度均值(Mean Average Precision,mAP)。
通过在公开数据集Market-1501、CUHK03和DukeMTMC-reID上进行的实验数据可见,本发明的基于排序损失和Siamese网络的行人再识别方法分别取得了81.5%、77.2%、72.21的Rank-1识别率,高于Verif.-Classif等方法。通过对比实验验证了本发明的基于排序损失和Siamese网络的行人再识别方法可以有效提升行人再识别的准确率。
本领域的技术人员应当理解,上述实施方式仅仅是为了清楚地说明本发明,而并非是对本发明的范围进行限定。对于所属领域的技术人员而言,在上述公开的基础上还可以做出其它变化或变型,并且这些变化或变型仍处于本发明的范围内。
Claims (6)
1.一种基于Siamese网络结合识别损失和排序损失的行人再识别方法,其特征在于:包括以下步骤:
S1,视频采集设备实时采集视频数据;
S2,对所述视频数据进行行人检测,生成四元图像组;
S3,把四元图像组输入到改进的Siamese网络进行特征向量提取;所述改进的Siamese网络结合识别损失和排序损失监督网络在训练集上进行训练,并且通过正负样本对的相似度差值大于预定阈值,使得负例图像对之间的距离大于正例图像对;
S4,通过计算两个特征向量之间的距离来判断是否为同一行人,所述距离采用余弦相似度进行度量。
2.一种如权利要求1所述的基于Siamese网络结合识别损失和排序损失的行人再识别方法,其特征在于:
所述步骤S2中的所述四元图像组表示为:(Xp,Yp,Xn,Yn),其中Xp,Yp,Xn,Yn分别代表输入图像,(Xp,Yp)代表相同图像对,它们具有相同的类别标签,(Xn,Yn)代表其他图像对,(Xn,Yn)分别和(Xp,Yp)具有不相同的类别标签;并且,相同类图像之间的距离小于不同类图像之间的距离,即
Dis(Xp,Yp)<Dis(Xp,Yn) (2)
Dis(Yp,Xp)<Dis(Yp,Xn) (3)
其中Dis(*,*)代表距离度量,(Xp,Yp)为输入的正样例,(Xn,Yn)为输入的负样例。
3.一种如权利要求1所述的基于Siamese网络结合识别损失和排序损失的行人再识别方法,其特征在于:
所述步骤S3中的所述改进的Siamese网络包括两个经过训练的卷积神经网络(CNN)。
4.一种如权利要求1所述的基于Siamese网络结合识别损失和排序损失的行人再识别方法,其特征在于:
所述步骤S3中的所述改进的Siamese网络的目标函数包括第一识别损失、排序损失和第二识别损失;所述第一识别损失和第二识别损失均为SoftMax损失;所述SoftMax损失定义为:
其中.N代表样本的个数,C表示样本类别的种类数,pi表示SoftMax函数输出的C维的表示概率的列向量,yi表示样本,代表在样本yi的位置上的概率值。
所述排序损失采用双向最大边界排序损失函数进行度量;所述双向最大边界排序损失函数的公式为:
Lrank=max[0,m-(D(Xp,Yp)-D(Xp,Yn))]
+max[0,m-(D(Xp,Yp)-D(Yp,Xn))] (4)
其中m是最大损失边界,并且它的大小影响训练中收敛的速度和效率,Lrank为双向最大边界排序损失函数;D(*,*)表示余弦相似度的分数;图像的相似度越大则D(*,*)表示余弦相似度的分数越高;得到最终的排序损失公式Lrank`为:
其中m仍然是最大损失边界,并且它的大小影响训练中收敛的速度和效率,Lrank`为最终的双向最大边界排序损失函数;其中Xp,Yp,Xn,Yn分别代表输入图像,fXp,fYp,fXn,fYn分别代表输入图像的特征向量,||*||2代表L2规范化。
当正样本的相似性分数减去负样本的相似性分数大于m,则损失为0;通过改变m来调整两对图像之间相似度的约束强度。
5.一种如权利要求1所述的基于Siamese网络结合识别损失和排序损失的行人再识别方法,其特征在于:
所述步骤S4中的所述余弦相似度的公式为
其中||*||2代表L2规范化,xi和xj代表两个输入实例,fi和fj分别代表两个实例的特征向量,D(xi,xj)为两个实例之间的余弦相似度。
6.一种如权利要求1所述的基于Siamese网络结合识别损失和排序损失的行人再识别方法,其特征在于:
所述步骤S3中的改进的Siamese网络的目标函数最终为
Lf=L1softmax+L2softmax+μLrank` (7)
其中,L1softmax表示第一识别损失,L2softmax表示第二识别损失,由于两个网络分支权重共享,因此这两个损失的权重相等,在加权求和时权重均为1,Lrank`表示为最终的双向最大边界排序损失,权重值为μ;即Siamese网络的目标函数表示为排序损失和两种识别损失的加权求和,其中权值μ是为了权衡排序损失和两种识别损失之间的影响。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810736588.5A CN108921107B (zh) | 2018-07-06 | 2018-07-06 | 基于排序损失和Siamese网络的行人再识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810736588.5A CN108921107B (zh) | 2018-07-06 | 2018-07-06 | 基于排序损失和Siamese网络的行人再识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108921107A true CN108921107A (zh) | 2018-11-30 |
CN108921107B CN108921107B (zh) | 2021-10-01 |
Family
ID=64425098
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810736588.5A Active CN108921107B (zh) | 2018-07-06 | 2018-07-06 | 基于排序损失和Siamese网络的行人再识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108921107B (zh) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109711316A (zh) * | 2018-12-21 | 2019-05-03 | 广东工业大学 | 一种行人重识别方法、装置、设备及存储介质 |
CN109886141A (zh) * | 2019-01-28 | 2019-06-14 | 同济大学 | 一种基于不确定性优化的行人再辨识方法 |
CN109934176A (zh) * | 2019-03-15 | 2019-06-25 | 艾特城信息科技有限公司 | 行人识别系统、识别方法及计算机可读存储介质 |
CN109977837A (zh) * | 2019-03-20 | 2019-07-05 | 常熟理工学院 | 基于人体姿态不变特征的行人再识别方法 |
CN110070107A (zh) * | 2019-03-26 | 2019-07-30 | 华为技术有限公司 | 物体识别方法及装置 |
CN110070129A (zh) * | 2019-04-23 | 2019-07-30 | 上海联影智能医疗科技有限公司 | 一种图像检测方法、装置及存储介质 |
CN110188225A (zh) * | 2019-04-04 | 2019-08-30 | 吉林大学 | 一种基于排序学习和多元损失的图像检索方法 |
CN110503053A (zh) * | 2019-08-27 | 2019-11-26 | 电子科技大学 | 基于循环卷积神经网络的人体动作识别方法 |
CN111079585A (zh) * | 2019-12-03 | 2020-04-28 | 浙江工商大学 | 基于深度学习的图像增强与伪孪生卷积神经网络结合的行人再识别方法 |
CN111598004A (zh) * | 2020-05-18 | 2020-08-28 | 北京星闪世图科技有限公司 | 一种渐进增强自学习的无监督跨领域行人再识别方法 |
CN111797700A (zh) * | 2020-06-10 | 2020-10-20 | 南昌大学 | 一种基于细粒度判别网络与二阶重排序的车辆重识别方法 |
CN111814620A (zh) * | 2020-06-28 | 2020-10-23 | 浙江大华技术股份有限公司 | 人脸图像质量评价模型建立方法、优选方法、介质及装置 |
WO2021017303A1 (zh) * | 2019-07-30 | 2021-02-04 | 平安科技(深圳)有限公司 | 行人重识别方法、装置、计算机设备及存储介质 |
WO2021243947A1 (zh) * | 2020-06-04 | 2021-12-09 | 商汤集团有限公司 | 对象再识别方法及装置、终端和存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130343642A1 (en) * | 2012-06-21 | 2013-12-26 | Siemens Corporation | Machine-learnt person re-identification |
CN108171184A (zh) * | 2018-01-03 | 2018-06-15 | 南京理工大学 | 基于Siamese网络的用于行人重识别的方法 |
-
2018
- 2018-07-06 CN CN201810736588.5A patent/CN108921107B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130343642A1 (en) * | 2012-06-21 | 2013-12-26 | Siemens Corporation | Machine-learnt person re-identification |
CN108171184A (zh) * | 2018-01-03 | 2018-06-15 | 南京理工大学 | 基于Siamese网络的用于行人重识别的方法 |
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109711316A (zh) * | 2018-12-21 | 2019-05-03 | 广东工业大学 | 一种行人重识别方法、装置、设备及存储介质 |
CN109711316B (zh) * | 2018-12-21 | 2022-10-21 | 广东工业大学 | 一种行人重识别方法、装置、设备及存储介质 |
CN109886141A (zh) * | 2019-01-28 | 2019-06-14 | 同济大学 | 一种基于不确定性优化的行人再辨识方法 |
CN109886141B (zh) * | 2019-01-28 | 2023-06-06 | 同济大学 | 一种基于不确定性优化的行人再辨识方法 |
CN109934176A (zh) * | 2019-03-15 | 2019-06-25 | 艾特城信息科技有限公司 | 行人识别系统、识别方法及计算机可读存储介质 |
CN109934176B (zh) * | 2019-03-15 | 2021-09-10 | 艾特城信息科技有限公司 | 行人识别系统、识别方法及计算机可读存储介质 |
CN109977837A (zh) * | 2019-03-20 | 2019-07-05 | 常熟理工学院 | 基于人体姿态不变特征的行人再识别方法 |
EP3933693A4 (en) * | 2019-03-26 | 2022-05-04 | Huawei Technologies Co., Ltd. | OBJECT RECOGNITION METHOD AND APPARATUS |
CN110070107A (zh) * | 2019-03-26 | 2019-07-30 | 华为技术有限公司 | 物体识别方法及装置 |
CN110188225A (zh) * | 2019-04-04 | 2019-08-30 | 吉林大学 | 一种基于排序学习和多元损失的图像检索方法 |
CN110188225B (zh) * | 2019-04-04 | 2022-05-31 | 吉林大学 | 一种基于排序学习和多元损失的图像检索方法 |
CN110070129B (zh) * | 2019-04-23 | 2021-07-16 | 上海联影智能医疗科技有限公司 | 一种图像检测方法、装置及存储介质 |
CN110070129A (zh) * | 2019-04-23 | 2019-07-30 | 上海联影智能医疗科技有限公司 | 一种图像检测方法、装置及存储介质 |
WO2021017303A1 (zh) * | 2019-07-30 | 2021-02-04 | 平安科技(深圳)有限公司 | 行人重识别方法、装置、计算机设备及存储介质 |
CN110503053B (zh) * | 2019-08-27 | 2022-07-08 | 电子科技大学 | 基于循环卷积神经网络的人体动作识别方法 |
CN110503053A (zh) * | 2019-08-27 | 2019-11-26 | 电子科技大学 | 基于循环卷积神经网络的人体动作识别方法 |
CN111079585A (zh) * | 2019-12-03 | 2020-04-28 | 浙江工商大学 | 基于深度学习的图像增强与伪孪生卷积神经网络结合的行人再识别方法 |
CN111079585B (zh) * | 2019-12-03 | 2023-08-15 | 浙江工商大学 | 图像增强结合伪孪生卷积神经网络的行人再识别方法 |
CN111598004A (zh) * | 2020-05-18 | 2020-08-28 | 北京星闪世图科技有限公司 | 一种渐进增强自学习的无监督跨领域行人再识别方法 |
CN111598004B (zh) * | 2020-05-18 | 2023-12-08 | 江苏星闪世图科技(集团)有限公司 | 一种渐进增强自学习的无监督跨领域行人再识别方法 |
WO2021243947A1 (zh) * | 2020-06-04 | 2021-12-09 | 商汤集团有限公司 | 对象再识别方法及装置、终端和存储介质 |
CN111797700A (zh) * | 2020-06-10 | 2020-10-20 | 南昌大学 | 一种基于细粒度判别网络与二阶重排序的车辆重识别方法 |
CN111814620A (zh) * | 2020-06-28 | 2020-10-23 | 浙江大华技术股份有限公司 | 人脸图像质量评价模型建立方法、优选方法、介质及装置 |
CN111814620B (zh) * | 2020-06-28 | 2023-08-15 | 浙江大华技术股份有限公司 | 人脸图像质量评价模型建立方法、优选方法、介质及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN108921107B (zh) | 2021-10-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108921107A (zh) | 基于排序损失和Siamese网络的行人再识别方法 | |
CN111126360B (zh) | 基于无监督联合多损失模型的跨域行人重识别方法 | |
US11195051B2 (en) | Method for person re-identification based on deep model with multi-loss fusion training strategy | |
CN111709311B (zh) | 一种基于多尺度卷积特征融合的行人重识别方法 | |
CN109034044B (zh) | 一种基于融合卷积神经网络的行人再识别方法 | |
CN109583322B (zh) | 一种人脸识别深度网络训练方法和系统 | |
CN110263697A (zh) | 基于无监督学习的行人重识别方法、装置及介质 | |
CN110580460A (zh) | 基于行人身份和属性特征联合识别验证的行人再识别方法 | |
CN108520226B (zh) | 一种基于躯体分解和显著性检测的行人重识别方法 | |
CN109101865A (zh) | 一种基于深度学习的行人重识别方法 | |
CN111259850A (zh) | 一种融合随机批掩膜和多尺度表征学习的行人重识别方法 | |
CN109948425A (zh) | 一种结构感知自注意和在线实例聚合匹配的行人搜索方法及装置 | |
CN104992142A (zh) | 一种基于深度学习和属性学习相结合的行人识别方法 | |
CN103279768B (zh) | 一种基于增量学习人脸分块视觉表征的视频人脸识别方法 | |
CN109255289B (zh) | 一种基于统一式生成模型的跨衰老人脸识别方法 | |
CN110807434A (zh) | 一种基于人体解析粗细粒度结合的行人重识别系统及方法 | |
CN110163117B (zh) | 一种基于自激励判别性特征学习的行人重识别方法 | |
CN110503000B (zh) | 一种基于人脸识别技术的教学抬头率测量方法 | |
CN111985581A (zh) | 一种基于样本级注意力网络的少样本学习方法 | |
CN111950372A (zh) | 一种基于图卷积网络的无监督行人重识别方法 | |
CN112149538A (zh) | 一种基于多任务学习的行人重识别方法 | |
Shi et al. | Instance enhancing loss: Deep identity-sensitive feature embedding for person search | |
CN107220598A (zh) | 基于深度学习特征和Fisher Vector编码模型的虹膜图像分类方法 | |
CN111460881A (zh) | 基于近邻判别的交通标志对抗样本检测方法和分类装置 | |
CN111967433A (zh) | 一种基于自监督学习网络的动作识别办法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |