CN108416295A - 一种基于局部嵌入深度特征的行人再识别方法 - Google Patents
一种基于局部嵌入深度特征的行人再识别方法 Download PDFInfo
- Publication number
- CN108416295A CN108416295A CN201810190864.2A CN201810190864A CN108416295A CN 108416295 A CN108416295 A CN 108416295A CN 201810190864 A CN201810190864 A CN 201810190864A CN 108416295 A CN108416295 A CN 108416295A
- Authority
- CN
- China
- Prior art keywords
- network
- training
- image
- identification
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Human Computer Interaction (AREA)
- Neurology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明实施例公开了一种基于局部嵌入深度特征的行人再识别方法,该方法包括:构建验证网络和识别网络;训练验证网络,提取训练图像的局部特征图得到其整体求和特征图;利用整体求和特征图对于识别网络进行训练;利用验证网络获得待识别图像和测试图像的整体求和特征图并将其作为识别网络的输入,在识别网络的全连接层提取待识别图像和测试图像的特征向量;通过计算待识别图像与测试图像特征向量之间的距离得到待识别图像的识别结果。本发明利用验证网络将局部特征映射到同一空间,使得相似的行人图像距离更近,非相似的行人图像距离更远,并利用识别网络学习具有完备结构信息的以及更强判别性的特征,从而提高行人再识别匹配的正确率。
Description
技术领域
本发明属于计算机视觉、人工智能技术领域,具体涉及一种基于局部嵌入深度特征的行人再识别方法。
背景技术
行人再识别(Re-identification)是指给定一幅行人图像,在多个摄像机拍摄场景的行人图像库中识别出与此人相同的图像。随着人们对公共安全重视程度的不断加深,视频监控系统被广泛地应用到公共安全场所,通过人工的方式对海量监控图像进行观察和处理变得越来越困难,行人再识别作为一项应用计算机快速匹配行人的技术,能够很大程度地代替人工操作,因此被广泛研究。由于不同摄像设备之间的差异,同时行人外观易受穿着、尺度、遮挡、姿态和视角等因素影响,使得行人再识别成为计算机视觉领域中一个既具有研究价值同时又极具挑战性的热门课题。
目前,卷积神经网络广泛应用于行人再识别领域,对于提高行人再识别的准确率至关重要。应用到行人再识别领域的卷积神经网络主要有两种类型,验证网络和识别网络。验证网络将行人再识别看成是二分类问题,Varior等人将验证网络与一些逻辑函数相结合,提取重要的局部信息。Ding等人利用三个预训练模型构建一个验证网络,并提出了可扩展的距离驱动特征学习框架。Ahmed等人在验证网络中增加了邻域差异层和后续层用于比较局部的卷积层的特征并利用这些特征之间的差异提高行人再识别匹配的正确率。识别网络将行人再识别看作是多分类问题,比验证网络具有更强的判别性。Zheng 等人利用三个大规模数据集对识别网络进行微调,取得了较好的实验结果。Wu等人将传统方法提取的特征嵌入到识别网络的全连接层用于行人图像的特征表示。Zheng等人结合验证网络和识别网络,学习更具辨别性的行人特征。然而,上述方法均是以整体方式学习识别网络,忽略了行人图像的结构信息。
发明内容
本发明的目的是要解决局部子区域提供的结构信息对行人再识别结果影响较大的问题,为此,本发明提供一种基于局部嵌入深度特征的行人再识别方法。
为了实现所述目的,本发明提出一种基于局部嵌入深度特征的行人再识别方法,所述方法包括以下步骤:
步骤S1,构建验证网络和识别网络;
步骤S2,训练所述验证网络并利用所述验证网络提取训练图像的局部特征图进而得到其整体求和特征图;
步骤S3,利用训练图像的整体求和特征图对于所述识别网络进行训练;
步骤S4,利用训练得到的验证网络获得待识别图像和测试图像的整体求和特征图并将其作为识别网络的输入,在识别网络的全连接层提取所述待识别图像和测试图像的特征向量;
步骤S5,通过计算待识别图像与测试图像特征向量之间的距离得到待识别图像的识别结果。
可选地,所述步骤S1包括以下步骤:
步骤S11,根据分类预测值和分类真实值构建验证网络;
步骤S12,根据分类预测值和分类真实值构建识别网络。
可选地,所述步骤S11包括以下步骤:
步骤S111,选择两个相同的第一预训练网络模型进行初始化,并使用连接函数将两个第一预训练网络模型的输出向量f1和f2连接起来得到输出向量 f′;
步骤S112,将所述输出向量f′输入到第一预训练网络模型最后的全连接层中,得到向量x;
步骤S113,将所述向量x输入到柔性最大值函数中得到分类预测值
步骤S114,根据分类预测值和已知的分类真实值pi,构建验证网络损失函数,进而得到验证网络。
可选地,所述步骤S12包括以下步骤:
步骤S121,对第二预训练网络模型进行初始化,将所述第二预训练网络模型最后的全连接层的神经元的个数修改为行人图像的类别数目N;
步骤S122,将所述第二预训练模型输出的向量f作为第二预训练网络模型最后的全连接层的输入,输出向量y;
步骤S123,将所述向量y输入到柔性最大值函数中得到分类预测值
步骤S124,根据分类预测值和已知的分类真实值qn,构建识别网络损失函数,进而得到识别网络。
可选地,所述步骤S2包括以下步骤:
步骤S21,获取训练图像集,将训练图像集中的每幅行人图像划分为K 个子区域,不同视角下同一行人的两幅训练图像的对应子区域定义为局部相似对,不同视角下不同行人的两幅训练图像的对应子区域定义为局部非相似对;
步骤S22,将局部相似对和局部非相似对大小缩放成为A×A,作为所述验证网络的输入对于所述验证网络进行训练,其中,A为正整数;
步骤S23,在验证网络中提取第一预训练网络模型的一预设卷积层的卷积激活作为输入局部区域的局部特征图;
步骤S24,将第k个子区域的M个局部特征图进行求和平均后得到第k 个子区域的局部求和特征图;
步骤S25,将每幅行人图像的K个子区域的局部求和特征图串联起来得到一幅行人图像的整体求和特征图。
可选地,所述步骤S22包括以下步骤:
步骤S221,将每个缩放后大小为A×A的局部相似对或者局部非相似对的两张局部图像分别输入到所述验证网络中的两个第一预训练网络模型中,以权重共享的方式进行前向传播,得到所述向量x,并计算得到验证网络损失值Lossvr;
步骤S222,利用随机梯度下降法计算所述验证网络损失值Lossvr的导数,通过反向传播对验证网络的参数进行更新,得到训练完成的验证网络。
可选地,所述步骤S3包括以下步骤:
步骤S31,将所述整体求和特征图赋予与其对应的原始训练图像的类别标签,并将所述整体求和特征图大小缩放为A×A;
步骤S32,将大小为A×A的整体求和特征图输入到识别网络中,进行前向传播,得到向量y并计算得到识别网络的损失值Lossid;
步骤S33,利用随机梯度下降法计算所述识别网络损失值Lossid的导数,通过反向传播对所述识别网络的参数进行更新,得到训练完成的识别网络。
可选地,所述步骤S4包括以下步骤:
步骤S41,利用训练得到的验证网络获得所述待识别图像和测试图像的整体求和特征图,并将所述整体求和特征图缩放为A×A作为训练得到的识别网络的输入;
步骤S42,将训练得到的识别网络最后的全连接层输出作为所述待识别图像和测试图像的特征向量f。
可选地,所述距离为欧式距离。
可选地,所述待识别图像与测试图像特征向量之间的欧氏距离越小,就说明待识别图像与测试图像之间的相似度越高。
本发明的有益效果为:本发明利用验证网络将局部特征映射到同一空间,使得相似的行人图像距离更近,非相似的行人图像距离更远,并充分利用识别网络学习具有完备结构信息的以及具有更强判别性的特征,从而提高行人再识别匹配的正确率。
需要说明的是,本发明得到了国家自然科学基金项目No.61501327、No.61711530240,天津市自然科学基金重点项目No.17JCZDJC30600,天津市应用基础与前沿技术研究计划青年基金项目No.15JCQNJC01700,天津师范大学“青年科研拔尖人才培育计划”No.135202RC1703,模式识别国家重点实验室开放课题基金No.201700001、No.201800002,中国国家留学基金No. 201708120040、No.201708120039的资助。
附图说明
图1是根据本发明一实施例的基于局部嵌入深度特征的行人再识别方法的流程图。
图2是根据本发明一实施例构建的验证网络和识别网络的结构框图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明了,下面结合具体实施方式并参照附图,对本发明进一步详细说明。应该理解,这些描述只是示例性的,而并非要限制本发明的范围。此外,在以下说明中,省略了对公知结构和技术的描述,以避免不必要地混淆本发明的概念。
图1是根据本发明一实施例基于局部嵌入深度特征的行人再识别方法的流程图,下面以图1为例来说明本发明的一些具体实现流程。本发明的方法是一种基于局部嵌入深度特征的行人再识别方法,其具体步骤包括:
步骤S1,构建验证网络和识别网络,图2显示了根据本发明一实施例构建的验证网络和识别网络的结构框图;
进一步地,所述步骤S1包括以下步骤:
步骤S11,根据分类预测值和分类真实值构建验证网络;
其中,所述步骤S11包括以下步骤:
步骤S111,选择两个相同的第一预训练网络模型进行初始化,并使用连接函数将两个第一预训练网络模型的输出向量f1和f2连接起来得到输出向量 f′;
在本发明一实施例中,这两个第一预训练网络模型的权重共享,所述第一预训练网络模型可以从以下网络模型中选择:CaffeNet、VGG19、 ResNet-50,比如可以选择ResNet-50。
两个第一预训练网络模型的输出向量可表示为f1∈Rd×1和f2∈Rd×1,其中, d表示输出向量的维数,那么输出向量f′可以表示为:
f′=(f1-f2)2
步骤S112,将所述输出向量f′输入到第一预训练网络模型最后的全连接层中,由于验证网络将行人再识别问题看作是二分类问题,所以输出向量f′经过最后的全连接层后输出得到一个2维向量x,这个2维向量x决定了输入的两幅图像是否属于同一个行人;
步骤S113,将所述2维向量x输入到柔性最大值函数中得到分类预测值
其中,xi和xj分别表示第一预训练网络模型最后的全连接层对应的第i个和第j个神经元的输出,所述分类预测值满足:所述分类预测值对应的分类真实值pi满足:对于相似图像对,p1=1,p2=0;对于非相似图像对,p1=0,p2=1。
步骤S114,根据分类预测值和已知的分类真实值pi,构建验证网络损失函数,进而得到验证网络,其中,损失值Lossvr可表示为:
步骤S12,根据分类预测值和分类真实值构建识别网络。
其中,所述步骤S12包括以下步骤:
步骤S121,对一个第二预训练网络模型进行初始化,将所述第二预训练网络模型最后的全连接层的神经元的个数修改为行人图像的类别数目N;
在本发明一实施例中,所述第二预训练网络模型选择为ResNet-50,这个模型由4个区组成,每个区包括9个卷积层。
步骤S122,如图2所示的识别网络,将所述第二预训练网络模型输出的向量f作为第二预训练网络模型最后的全连接层的输入,输出N维的向量y;
步骤S123,将所述N维向量y输入到柔性最大值函数中得到分类预测值
其中,yn和yj分别表示第二预训练网络模型最后的全连接层对应的第n 个和第j个神经元的输出。
步骤S124,根据分类预测值和已知的分类真实值qn,构建识别网络损失函数,进而得到识别网络,其中,损失值Lossid可表示为:
其中,分类真实值qn可以表示为:
其中,t是真实的类别标签。
步骤S2,训练所述验证网络并利用所述验证网络提取训练图像的局部特征图进而得到其整体求和特征图;
进一步地,所述步骤S2包括以下步骤:
步骤S21,获取训练图像集,将训练图像集中的每幅行人图像划分为K 个子区域,不同视角下同一行人的两幅训练图像的对应子区域定义为局部相似对,不同视角下不同行人的两幅训练图像的对应子区域定义为局部非相似对;
步骤S22,将局部相似对和局部非相似对大小缩放成为A×A,作为所述验证网络的输入对于所述训练验证网络进行训练,其中,A为正整数;
在本发明一实施例中,A取为224。
其中,所述步骤S22包括以下步骤:
步骤S221,将每个缩放后大小为A×A的局部相似对或者局部非相似对的两张局部区域分别输入到所述验证网络中的两个第一预训练网络模型中,以权重共享的方式进行前向传播,得到所述2维向量x,并计算得到验证网络损失值Lossvr;
步骤S222,利用随机梯度下降法计算所述验证网络损失值Lossvr的导数,通过反向传播对验证网络的参数进行更新,得到训练完成的验证网络。
在本发明一实施例中,输入所述验证网络的局部相似对或者局部非相似对的比例为1:1,采用小批量随机梯度下降法对验证网络进行迭代训练,训练过程中每次迭代的输入均取24对,迭代次数为75次,学习速率初始化为 0.001,最后的5次迭学习速率代中取为0.0001。
步骤S23,在验证网络中提取第一预训练网络模型的一预设卷积层的卷积激活作为输入局部区域的局部特征图,用表示,其中k∈{1,2,...,K}表示每幅行人图像的第k个子区域,m∈{1,2,...,M}表示每幅行人图像每个子区域的第 m个局部特征图;
在本发明一实施例中,所述第一预训练网络模型选为ResNet-50,所述预设卷积层为第一个区的第9个卷积层,ResNet-50的第一个区的第9个卷积层提取的局部特征图的数量M=256,每幅行人图像划分的子区域的个数为 K=3。LKF180074
步骤S24,将第k个子区域的M个局部特征图进行求和平均后得到第k 个子区域的局部求和特征图,表示为:
其中,表示第k个子区域的第m个局部特征图;
步骤S25,将每幅行人图像的K个子区域的局部求和特征图串联起来得到一幅行人图像的整体求和特征图,表示为:
Z=[Z1;Z2;...;Zk;...;ZK]
其中,Zk表示一幅行人图像的第k个子区域的局部求和特征图。
步骤S3,利用训练图像的整体求和特征图对于所述识别网络进行训练;
进一步地,所述步骤S3包括以下步骤:
步骤S31,将所述整体求和特征图赋予与其对应的原始训练图像的类别标签,并将所述整体求和特征图大小缩放为A×A;
步骤S32,将大小为A×A的整体求和特征图输入到识别网络,进行前向传播,得到N维向量y并计算得到识别网络的损失值Lossid;
步骤S33,利用随机梯度下降法计算所述识别网络损失值Lossid的导数,通过反向传播对所述识别网络的参数进行更新,得到训练完成的识别网络。
在本发明一实施例中,采用小批量随机梯度下降法训练识别网络,训练过程中每次迭代时输入24幅整体求和特征图,迭代次数为75次,学习速率初始化为0.001,最后的5次迭代中学习速率取为0.0001。
步骤S4,在测试阶段,利用训练得到的验证网络获得待识别图像和测试图像的整体求和特征图并将其作为识别网络的输入,在识别网络的全连接层提取所述待识别图像和测试图像的特征向量;
进一步地,所述步骤S4包括以下步骤:
步骤S41,利用训练得到的验证网络获得所述待识别图像和测试图像的整体求和特征图,并将所述整体求和特征图缩放为A×A作为训练得到的识别网络的输入;
步骤S42,将训练得到的识别网络最后的全连接层输出作为所述待识别图像和测试图像最终的特征向量f。
步骤S5,通过计算所述待识别图像与测试图像特征向量之间的距离得到所述待识别图像的识别结果。
在本发明一实施例中,所述距离为欧式距离,在该实施例中,所述待识别图像与测试图像特征向量之间的欧氏距离越小,就说明待识别图像与测试图像之间的相似度越高,进而得到所述待识别图像的识别结果。
以网上公开的行人再识别数据库作为测试对象,比如在Market-1501数据库上,当K=3时,行人再识别匹配的正确率为rank-1=80.77%,平均精度 mAP=61.34%。由此可见本发明方法的有效性。
应当理解的是,本发明的上述具体实施方式仅仅用于示例性说明或解释本发明的原理,而不构成对本发明的限制。因此,在不偏离本发明的精神和范围的情况下所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。此外,本发明所附权利要求旨在涵盖落入所附权利要求范围和边界、或者这种范围和边界的等同形式内的全部变化和修改例。
Claims (10)
1.一种基于局部嵌入深度特征的行人再识别方法,其特征在于,该方法包括以下步骤:
步骤S1,构建验证网络和识别网络;
步骤S2,训练所述验证网络并利用所述验证网络提取训练图像的局部特征图进而得到其整体求和特征图;
步骤S3,利用训练图像的整体求和特征图对于所述识别网络进行训练;
步骤S4,利用训练得到的验证网络获得待识别图像和测试图像的整体求和特征图并将其作为识别网络的输入,在识别网络的全连接层提取所述待识别图像和测试图像的特征向量;
步骤S5,通过计算待识别图像与测试图像特征向量之间的距离得到待识别图像的识别结果。
2.根据权利要求1所述的方法,其特征在于,所述步骤S1包括以下步骤:
步骤S11,根据分类预测值和分类真实值构建验证网络;
步骤S12,根据分类预测值和分类真实值构建识别网络。
3.根据权利要求2所述的方法,其特征在于,所述步骤S11包括以下步骤:
步骤S111,选择两个相同的第一预训练网络模型进行初始化,并使用连接函数将两个第一预训练网络模型的输出向量f1和f2连接起来得到输出向量f′;
步骤S112,将所述输出向量f′输入到第一预训练网络模型最后的全连接层中,得到向量x;
步骤S113,将所述向量x输入到柔性最大值函数中得到分类预测值
步骤S114,根据分类预测值和已知的分类真实值pi,构建验证网络损失函数,进而得到验证网络。
4.根据权利要求2所述的方法,其特征在于,所述步骤S12包括以下步骤:
步骤S121,对第二预训练网络模型进行初始化,将所述第二预训练网络模型最后的全连接层的神经元的个数修改为行人图像的类别数目N;
步骤S122,将所述第二预训练模型输出的向量f作为第二预训练网络模型最后的全连接层的输入,输出向量y;
步骤S123,将所述向量y输入到柔性最大值函数中得到分类预测值
步骤S124,根据分类预测值和已知的分类真实值qn,构建识别网络损失函数,进而得到识别网络。
5.根据权利要求1所述的方法,其特征在于,所述步骤S2包括以下步骤:
步骤S21,获取训练图像集,将训练图像集中的每幅行人图像划分为K个子区域,不同视角下同一行人的两幅训练图像的对应子区域定义为局部相似对,不同视角下不同行人的两幅训练图像的对应子区域定义为局部非相似对;
步骤S22,将局部相似对和局部非相似对大小缩放成为A×A,作为所述验证网络的输入对于所述验证网络进行训练,其中,A为正整数;
步骤S23,在验证网络中提取第一预训练网络模型的一预设卷积层的卷积激活作为输入局部区域的局部特征图;
步骤S24,将第k个子区域的M个局部特征图进行求和平均后得到第k个子区域的局部求和特征图;
步骤S25,将每幅行人图像的K个子区域的局部求和特征图串联起来得到一幅行人图像的整体求和特征图。
6.根据权利要求5所述的方法,其特征在于,所述步骤S22包括以下步骤:
步骤S221,将每个缩放后大小为A×A的局部相似对或者局部非相似对的两张局部图像分别输入到所述验证网络中的两个第一预训练网络模型中,以权重共享的方式进行前向传播,得到所述向量x,并计算得到验证网络损失值Lossvr;
步骤S222,利用随机梯度下降法计算所述验证网络损失值Lossvr的导数,通过反向传播对验证网络的参数进行更新,得到训练完成的验证网络。
7.根据权利要求1所述的方法,其特征在于,所述步骤S3包括以下步骤:
步骤S31,将所述整体求和特征图赋予与其对应的原始训练图像的类别标签,并将所述整体求和特征图大小缩放为A×A;
步骤S32,将大小为A×A的整体求和特征图输入到识别网络中,进行前向传播,得到向量y并计算得到识别网络的损失值Lossid;
步骤S33,利用随机梯度下降法计算所述识别网络损失值Lossid的导数,通过反向传播对所述识别网络的参数进行更新,得到训练完成的识别网络。
8.根据权利要求1所述的方法,其特征在于,所述步骤S4包括以下步骤:
步骤S41,利用训练得到的验证网络获得所述待识别图像和测试图像的整体求和特征图,并将所述整体求和特征图缩放为A×A作为训练得到的识别网络的输入;
步骤S42,将训练得到的识别网络最后的全连接层输出作为所述待识别图像和测试图像的特征向量f。
9.根据权利要求1所述的方法,其特征在于,所述距离为欧式距离。
10.根据权利要求9所述的方法,其特征在于,所述待识别图像与测试图像特征向量之间的欧氏距离越小,就说明待识别图像与测试图像之间的相似度越高。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810190864.2A CN108416295B (zh) | 2018-03-08 | 2018-03-08 | 一种基于局部嵌入深度特征的行人再识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810190864.2A CN108416295B (zh) | 2018-03-08 | 2018-03-08 | 一种基于局部嵌入深度特征的行人再识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108416295A true CN108416295A (zh) | 2018-08-17 |
CN108416295B CN108416295B (zh) | 2021-10-15 |
Family
ID=63130487
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810190864.2A Active CN108416295B (zh) | 2018-03-08 | 2018-03-08 | 一种基于局部嵌入深度特征的行人再识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108416295B (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109583502A (zh) * | 2018-11-30 | 2019-04-05 | 天津师范大学 | 一种基于对抗擦除注意力机制的行人再识别方法 |
CN109614853A (zh) * | 2018-10-30 | 2019-04-12 | 国家新闻出版广电总局广播科学研究院 | 一种基于身体结构划分的双线性行人再识别网络构建方法 |
CN109784288A (zh) * | 2019-01-22 | 2019-05-21 | 天津师范大学 | 一种基于判别感知融合的行人再识别方法 |
CN110516533A (zh) * | 2019-07-11 | 2019-11-29 | 同济大学 | 一种基于深度度量的行人再辨识方法 |
CN111275070A (zh) * | 2019-12-26 | 2020-06-12 | 厦门商集网络科技有限责任公司 | 一种基于局部特征匹配的签名验证方法及设备 |
CN111428562A (zh) * | 2020-02-24 | 2020-07-17 | 天津师范大学 | 一种基于部件引导图卷积网络的行人再识别方法 |
CN111611846A (zh) * | 2020-03-31 | 2020-09-01 | 北京迈格威科技有限公司 | 行人再识别方法、装置、电子设备及存储介质 |
CN111612093A (zh) * | 2020-05-29 | 2020-09-01 | Oppo广东移动通信有限公司 | 一种视频分类方法、视频分类装置、电子设备及存储介质 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103514444A (zh) * | 2013-10-15 | 2014-01-15 | 北京联合大学 | 一种基于轮廓和色彩相似对称分布特征的行人检测方法 |
CN105468760A (zh) * | 2015-12-01 | 2016-04-06 | 北京奇虎科技有限公司 | 对人脸图片进行标注的方法和装置 |
CN106250866A (zh) * | 2016-08-12 | 2016-12-21 | 广州视源电子科技股份有限公司 | 基于神经网络的图像特征提取建模、图像识别方法及装置 |
US20170017815A1 (en) * | 2015-06-29 | 2017-01-19 | Mesh Candy, Inc. | Security and identification system and method using data collection and messaging over a dynamic mesh network |
CN106407926A (zh) * | 2016-09-09 | 2017-02-15 | 东软集团股份有限公司 | 一种行人检测方法及装置 |
CN106778527A (zh) * | 2016-11-28 | 2017-05-31 | 中通服公众信息产业股份有限公司 | 一种基于三重损失的改进的神经网络行人再识别方法 |
CN106778633A (zh) * | 2016-12-19 | 2017-05-31 | 江苏慧眼数据科技股份有限公司 | 一种基于区域分割的行人识别方法 |
CN107273872A (zh) * | 2017-07-13 | 2017-10-20 | 北京大学深圳研究生院 | 用于图像或视频中行人重识别的深度判别网络模型方法 |
CN107273876A (zh) * | 2017-07-18 | 2017-10-20 | 山东大学 | 一种基于深度学习的‘宏to微转换模型’的微表情自动识别方法 |
CN107292333A (zh) * | 2017-06-05 | 2017-10-24 | 浙江工业大学 | 一种基于深度学习的快速图像分类方法 |
CN107330416A (zh) * | 2017-07-10 | 2017-11-07 | 天津师范大学 | 一种基于判别结构测度学习的行人再识别方法 |
CN107330396A (zh) * | 2017-06-28 | 2017-11-07 | 华中科技大学 | 一种基于多属性和多策略融合学习的行人再识别方法 |
-
2018
- 2018-03-08 CN CN201810190864.2A patent/CN108416295B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103514444A (zh) * | 2013-10-15 | 2014-01-15 | 北京联合大学 | 一种基于轮廓和色彩相似对称分布特征的行人检测方法 |
US20170017815A1 (en) * | 2015-06-29 | 2017-01-19 | Mesh Candy, Inc. | Security and identification system and method using data collection and messaging over a dynamic mesh network |
CN105468760A (zh) * | 2015-12-01 | 2016-04-06 | 北京奇虎科技有限公司 | 对人脸图片进行标注的方法和装置 |
CN106250866A (zh) * | 2016-08-12 | 2016-12-21 | 广州视源电子科技股份有限公司 | 基于神经网络的图像特征提取建模、图像识别方法及装置 |
CN106407926A (zh) * | 2016-09-09 | 2017-02-15 | 东软集团股份有限公司 | 一种行人检测方法及装置 |
CN106778527A (zh) * | 2016-11-28 | 2017-05-31 | 中通服公众信息产业股份有限公司 | 一种基于三重损失的改进的神经网络行人再识别方法 |
CN106778633A (zh) * | 2016-12-19 | 2017-05-31 | 江苏慧眼数据科技股份有限公司 | 一种基于区域分割的行人识别方法 |
CN107292333A (zh) * | 2017-06-05 | 2017-10-24 | 浙江工业大学 | 一种基于深度学习的快速图像分类方法 |
CN107330396A (zh) * | 2017-06-28 | 2017-11-07 | 华中科技大学 | 一种基于多属性和多策略融合学习的行人再识别方法 |
CN107330416A (zh) * | 2017-07-10 | 2017-11-07 | 天津师范大学 | 一种基于判别结构测度学习的行人再识别方法 |
CN107273872A (zh) * | 2017-07-13 | 2017-10-20 | 北京大学深圳研究生院 | 用于图像或视频中行人重识别的深度判别网络模型方法 |
CN107273876A (zh) * | 2017-07-18 | 2017-10-20 | 山东大学 | 一种基于深度学习的‘宏to微转换模型’的微表情自动识别方法 |
Non-Patent Citations (9)
Title |
---|
LIN WU等: "PersonNet: Person Re-identification with Deep Convolutional Neural Networks", 《ARXIV:1601.07255V2》 * |
RAHUL RAMA VARIOR等: "Gated Siamese Convolutional Neural Network Architecture for Human Re-Identi cation", 《ARXIV:1607.08378V2》 * |
WEI-SHI ZHENG等: "Towards Open-World Person Re-Identification by One-Shot Group-Based Verification", 《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》 * |
YI SUN 等: "Deep Learning Face Representation by Joint Identification-Verification", 《ARXIV:1406.4773V1》 * |
ZHEDONG ZHENG 等: "A Discriminatively Learned CNN Embedding for Person Reidentification", 《ACM TRANS. MULTIMEDIA COMPUT. COMMUN》 * |
刘娜: "基于卷积神经网络的行人重识别算法", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
焦旭辉: "基于深度学习的行人再识别技术研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
蒋桧慧等: "融合直接度量和间接度量的行人再识别", 《模式识别与人工智能》 * |
蔡晓东 等: "验证和识别相融合的深度行人识别网络", 《计算机应用》 * |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109614853A (zh) * | 2018-10-30 | 2019-04-12 | 国家新闻出版广电总局广播科学研究院 | 一种基于身体结构划分的双线性行人再识别网络构建方法 |
CN109583502A (zh) * | 2018-11-30 | 2019-04-05 | 天津师范大学 | 一种基于对抗擦除注意力机制的行人再识别方法 |
CN109583502B (zh) * | 2018-11-30 | 2022-11-18 | 天津师范大学 | 一种基于对抗擦除注意力机制的行人再识别方法 |
CN109784288A (zh) * | 2019-01-22 | 2019-05-21 | 天津师范大学 | 一种基于判别感知融合的行人再识别方法 |
CN110516533A (zh) * | 2019-07-11 | 2019-11-29 | 同济大学 | 一种基于深度度量的行人再辨识方法 |
CN110516533B (zh) * | 2019-07-11 | 2023-06-02 | 同济大学 | 一种基于深度度量的行人再辨识方法 |
CN111275070A (zh) * | 2019-12-26 | 2020-06-12 | 厦门商集网络科技有限责任公司 | 一种基于局部特征匹配的签名验证方法及设备 |
CN111275070B (zh) * | 2019-12-26 | 2023-11-14 | 厦门商集网络科技有限责任公司 | 一种基于局部特征匹配的签名验证方法及设备 |
CN111428562A (zh) * | 2020-02-24 | 2020-07-17 | 天津师范大学 | 一种基于部件引导图卷积网络的行人再识别方法 |
CN111428562B (zh) * | 2020-02-24 | 2022-09-23 | 天津师范大学 | 一种基于部件引导图卷积网络的行人再识别方法 |
CN111611846A (zh) * | 2020-03-31 | 2020-09-01 | 北京迈格威科技有限公司 | 行人再识别方法、装置、电子设备及存储介质 |
CN111612093A (zh) * | 2020-05-29 | 2020-09-01 | Oppo广东移动通信有限公司 | 一种视频分类方法、视频分类装置、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN108416295B (zh) | 2021-10-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108416295A (zh) | 一种基于局部嵌入深度特征的行人再识别方法 | |
CN109034044B (zh) | 一种基于融合卷积神经网络的行人再识别方法 | |
CN108229444B (zh) | 一种基于整体和局部深度特征融合的行人再识别方法 | |
CN110135295A (zh) | 一种基于迁移学习的无监督行人重识别方法 | |
CN105678284B (zh) | 一种固定位人体行为分析方法 | |
CN108830188A (zh) | 基于深度学习的车辆检测方法 | |
CN108764308A (zh) | 一种基于卷积循环网络的行人重识别方法 | |
CN110414432A (zh) | 对象识别模型的训练方法、对象识别方法及相应的装置 | |
CN108537136A (zh) | 基于姿态归一化图像生成的行人重识别方法 | |
CN109447115A (zh) | 基于多层语义监督式注意力模型的细粒度零样本分类方法 | |
CN110334705A (zh) | 一种结合全局和局部信息的场景文本图像的语种识别方法 | |
CN108038846A (zh) | 基于多层卷积神经网络的输电线路设备图像缺陷检测方法及系统 | |
CN104462494B (zh) | 一种基于无监督特征学习的遥感图像检索方法及系统 | |
CN107463920A (zh) | 一种消除局部遮挡物影响的人脸识别方法 | |
CN108960184A (zh) | 一种基于异构部件深度神经网络的行人再识别方法 | |
CN110097029B (zh) | 基于Highway网络多视角步态识别的身份认证方法 | |
CN110378233B (zh) | 一种基于人群行为先验知识的双分支异常检测方法 | |
CN109034035A (zh) | 基于显著性检测和特征融合的行人重识别方法 | |
CN109784288B (zh) | 一种基于判别感知融合的行人再识别方法 | |
CN109766873A (zh) | 一种混合可变形卷积的行人再识别方法 | |
CN110008861A (zh) | 一种基于全局和局部特征学习的行人再识别方法 | |
CN110210550A (zh) | 基于集成学习策略的图像细粒度识别方法 | |
CN105404865A (zh) | 基于概率态受限玻尔兹曼机级联的人脸检测方法 | |
CN109919246A (zh) | 基于自适应特征聚类和多重损失融合的行人重识别方法 | |
CN104850857A (zh) | 基于视觉空间显著性约束的跨摄像机行人目标匹配方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right | ||
TR01 | Transfer of patent right |
Effective date of registration: 20221128 Address after: 300392 Room 602, Building 3, No. 1, Huixue Road, Xuefu Industrial Zone, Xiqing District, Tianjin Patentee after: Tianjin Fuyi Intelligent Information Technology Co.,Ltd. Address before: 300387 Tianjin city Xiqing District West Binshui Road No. 393 Patentee before: TIANJIN NORMAL University |