CN111274958B - 一种网络参数自纠正的行人重识别方法及系统 - Google Patents
一种网络参数自纠正的行人重识别方法及系统 Download PDFInfo
- Publication number
- CN111274958B CN111274958B CN202010065378.5A CN202010065378A CN111274958B CN 111274958 B CN111274958 B CN 111274958B CN 202010065378 A CN202010065378 A CN 202010065378A CN 111274958 B CN111274958 B CN 111274958B
- Authority
- CN
- China
- Prior art keywords
- network model
- video
- pedestrian
- videos
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/30—Scenes; Scene-specific elements in albums, collections or shared content, e.g. social network photos or video
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/29—Graphical models, e.g. Bayesian networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种网络参数自纠正的行人重识别方法及系统,该方法包括:A、使用已标注类标签行人视频训练深度网络得到参考网络模型;B、利用参考网络模型估计未标注类标签行人视频的伪标签,并选取一定比例训练深度网络得到目标网络模型;C、从选取的未标注视频中再选取一定比例,打乱其伪标签,训练深度网络得到偏差网络模型;D、计算噪声自适应损失,对目标网络模型中错误网络参数更新进行自纠正;E、将参考网络模型替换成目标网络模型,重复步骤B‑D,并增加未标注视频的选取比例直到所有未标注视频被选中,得到最终的目标网络模型;F、使用目标网络模型对查询视频进行行人重识别。该方法及系统有利于提高行人重识别的准确性与鲁棒性。
Description
技术领域
本发明属于模式识别与计算机视觉领域,具体涉及一种网络参数自纠正的行人重识别方法及系统。
背景技术
行人重识别是在多个摄像头拍摄到的行人视频数据中检索出特定行人目标的任务,该任务可应用于智能安防、智能侦查等领域中,具有较高的理论和实际应用价值。基于深度神经网络的行人重识别方法在识别性能得到了较大的改善,但已提出的方法大都属于监督学习的方法,需要数量庞大的标注数据集进行网络模型的训练,人工标注成本高,不利于在实际场景中进行推广,所以研究更为高效的网络训练方法成为当前行人重识别领域的一个关键问题。
半监督学习的方法则是使用少量的标注样本进行网络模型的训练,通过一定的策略开发利用未标注样本,使得模型性能得到了较大的提升,成为解决行人重识别中标注成本高问题的一个有效方案。但在利用未标注样本的过程中,需要对未标注样本进行伪标签的估计,但由于缺乏标注信息,估计出来的伪标签存在错误,这就造成了数据噪声,使得后续训练得到的网络模型出现偏差。随着迭代的不断进行,该偏差逐渐加重,模型性能的提升受到限制,这也是半监督学习方法需要解决的一个关键问题。
发明内容
本发明的目的在于提供一种网络参数自纠正的行人重识别方法及系统,该方法及系统有利于提高行人重识别的准确性与鲁棒性。
为实现上述目的,本发明采用的技术方案是:一种网络参数自纠正的行人重识别方法,包括以下步骤:
步骤A:使用已标注类标签的行人视频训练深度网络,得到参考网络模型;
步骤B:利用参考网络模型对未标注类标签的行人视频进行伪标签估计,并选取一定比例的置信度高的行人视频训练深度网络,得到目标网络模型;
步骤C:对于选取的未标注视频,再选取一定比例的视频,对其伪标签进行随机打乱,然后利用这些视频训练深度网络,得到偏差网络模型;
步骤D:根据参考网络模型、目标网络模型以及偏差网络模型计算噪声自适应损失,对目标网络模型中因噪声数据而产生的错误网络参数更新进行自纠正;
步骤E:将参考网络模型替换成当前目标网络模型,重复步骤B、C、D,并按一定比例增加步骤B中未标注视频的选取比例,直到所有未标注视频被选中,得到最终的目标网络模型;
步骤F:使用目标网络模型提取查询视频和检索集的行人视频的特征,并计算查询视频和检索集视频的特征距离,递增排序该距离,得到查询视频的近邻列表,完成行人重识别。
进一步地,所述步骤A中,使用已标注类标签的行人视频训练深度网络,所述深度网络由若干个卷积层、最大池化层以及线性整流函数层组成,按照下面的公式计算分类损失:
l=-log(cy)
其中,log(·)为对数函数,c为网络输出的分类向量,cy为分类向量的第y个元素,y为该视频对应的类标签,l为分类损失;根据该损失,利用梯度方向传播算法计算网络各参数的梯度,后使用随机梯度下降更新参数,得到训练后的参考网络模型。
进一步地,所述步骤B具体包括以下步骤:
步骤B1:利用参考网络模型对已标注类标签的行人视频以及未标注类标签的行人视频进行特征提取,计算未标注视频与已标注视频的欧式距离,并选取距离最小值对应的已标注视频的类标签作为未标注视频的伪标签,该距离最小值的负值成为该伪标签估计的置信度;
步骤B2:将未标注视频按照置信度进行排序,按照一定比例选取列表中排名靠前的未标注视频组成训练集,后使用步骤A所述的网络训练方法训练得到目标网络模型。
进一步地,所述步骤C具体包括以下步骤:
步骤C1:对于选取的未标注视频,再选取一定比例的视频,将其伪标签随机替换成其他标签,即随机打乱伪标签;
步骤C2:使用这些选取的未标注视频组成训练集,后使用步骤A所述的网络训练方法训练得到偏差网络模型。
进一步地,所述步骤D具体包括以下步骤:
步骤D1:计算参考网络模型和目标网络模型的参数差异度,公式如下:
Loss(θt,θr)=Ε(log(f(θt))-log(f(θr)))
其中,E(·)为数学期望,f(·)为网络输出,f(θt)表示目标网络模型的输出,f(θr)表示参考网络模型的输出,Loss(θt,θr)为参考网络模型和目标网络模型的参数差异度;
步骤D2:计算偏差网络模型和目标网络模型的参数差异度,公式如下:
Loss(θt,θb)=Ε(log(f(θt))-log(f(θb)))
其中,f(θb)表示偏差网络模型的输出,Loss(θt,θb)为偏差网络模型和目标网络模型的参数差异度;
步骤D3:结合参考网络模型和偏差网络模型分别与目标网络模型的参数差异度,计算噪声自适应损失,公式如下:
LossNTL=log(1+exp(Loss(θt,θr)-Loss(θt,θb)))
其中,exp(·)为指数函数,LossNTL为噪声自适应损失;
步骤D4:根据该损失,使用梯度方向传播算法计算目标网络模型各参数的梯度,并使用随机梯度下降方法更新各参数,完成网络参数自纠正过程。
进一步地,所述步骤F具体包括以下步骤:
步骤F1:输入查询视频和检索集的行人视频到最终训练得到的目标网络模型,根据网络的输出获得各视频的特征;
步骤F2:对于查询视频,计算其与检索集中各行人视频的特征距离,公式如下:
dis(Fq,Fg)=||Fq-Fg||2
其中,Fq为查询视频对应的特征,Fg为检索集中的一个视频的特征,dis(Fq,Fg)为查询视频和该检索集视频的特征距离;
步骤F3:按照距离,对检索集中各视频进行递增排序,排序结果就是查询视频的近邻列表,完成行人重识别。
本发明还提供了一种采用上述方法的行人重识别系统,包括:
参考网络模型模块,用于使用已标注类标签的行人视频训练深度网络,由卷积层、最大池化层以及线性整流函数层构成,训练得到参考网络模型;
目标网络模型模块,用于利用参考网络模型对未标注类标签的行人视频进行伪标签估计,并选取一定比例的置信度高的行人视频训练深度网络,得到目标网络模型;
偏差网络模型模块,用于对选取的未标注视频,再选取一定比例的视频,对其伪标签进行随机打乱,后利用这些视频训练深度网络,得到偏差网络模型;
噪声自适应损失模块,用于根据参考网络模型、目标网络模型以及偏差网络模型计算噪声自适应损失,对目标网络模型中因噪声数据而产生的错误网络参数更新进行自纠正;
迭代训练模块,用于将参考网络模型替换成当前目标网络模型,并重复参考网络模型模块、目标网络模型模块以及偏差网络模型模块的训练过程,按一定比例增加未标注视频的选取比例,直到所有未标注视频被选中,得到最终的目标网络模型;以及
重识别模块,用于使用目标网络模型提取查询视频和检索集的行人视频的特征,并计算查询视频和检索集视频的特征距离,递增排序该距离,得到查询视频的近邻列表,完成行人重识别。
相较于现有技术,本发明具有以下有益效果:通过提出的网络参数自纠正方法实现了使用较少的标注样本训练得到性能较高的行人重识别系统的目标,解决了标注成本高和噪声数据的问题。该方法首先使用可能带有噪声的数据训练得到目标网络模型,后对数据进行随机噪声的模拟训练得到偏差网络模型,并利用迭代过程中上一次的目标网络模型作为当前的参考网络。后根据这三个模型计算噪声自适应损失,利用该损失实现网络参数的自纠正处理,减小了噪声数据对目标模型的影响,使得错误的参数更新能够得到纠正,因此模型的性能可较大的提升。本发明所提出的网络参数自纠正的行人重识别方法及系统具有噪声鲁棒、训练成本低、计算高效等优点。
附图说明
图1是本发明实施例的方法实现流程图。
图2是本发明实施例的系统结构示意图。
具体实施方式
下面结合附图及具体实施例对本发明作进一步的详细说明。
本发明提供一种网络参数自纠正的行人重识别方法,如图1所示,包括以下步骤:
步骤A:使用已标注类标签的行人视频训练深度网络,得到参考网络模型。
所述步骤A中,使用已标注类标签的行人视频训练深度网络,所述深度网络由若干个卷积层、最大池化层以及线性整流函数层组成,按照下面的公式计算分类损失:
l=-log(cy)
其中,log(·)为对数函数,c为网络输出的分类向量,cy为分类向量的第y个元素,y为该视频对应的类标签,l为分类损失;根据该损失,利用梯度方向传播算法计算网络各参数的梯度,后使用随机梯度下降更新参数,得到训练后的参考网络模型。
步骤B:利用参考网络模型对未标注类标签的行人视频进行伪标签估计,并选取一定比例的置信度高的行人视频训练深度网络,得到目标网络模型。具体包括以下步骤:
步骤B1:利用参考网络模型对已标注类标签的行人视频以及未标注类标签的行人视频进行特征提取,计算未标注视频与已标注视频的欧式距离,并选取距离最小值对应的已标注视频的类标签作为未标注视频的伪标签,该距离最小值的负值成为该伪标签估计的置信度;
步骤B2:将未标注视频按照置信度进行排序,按照一定比例选取列表中排名靠前的未标注视频组成训练集,后使用步骤A所述的网络训练方法训练得到目标网络模型。
步骤C:对于选取的未标注视频,再选取一定比例的视频,对其伪标签进行随机打乱,然后利用这些视频训练深度网络,得到偏差网络模型。具体包括以下步骤:
步骤C1:对于选取的未标注视频,再选取一定比例的视频,将其伪标签随机替换成其他标签,即随机打乱伪标签;
步骤C2:使用这些选取的未标注视频组成训练集,后使用步骤A所述的网络训练方法训练得到偏差网络模型。
步骤D:根据参考网络模型、目标网络模型以及偏差网络模型计算噪声自适应损失,对目标网络模型中因噪声数据而产生的错误网络参数更新进行自纠正。具体包括以下步骤:
步骤D1:计算参考网络模型和目标网络模型的参数差异度,公式如下:
Loss(θt,θr)=Ε(log(f(θt))-log(f(θr)))
其中,E(·)为数学期望,f(·)为网络输出,f(θt)表示目标网络模型的输出,f(θr)表示参考网络模型的输出,Loss(θt,θr)为参考网络模型和目标网络模型的参数差异度;
步骤D2:计算偏差网络模型和目标网络模型的参数差异度,公式如下:
Loss(θt,θb)=Ε(log(f(θt))-log(f(θb)))
其中,f(θb)表示偏差网络模型的输出,Loss(θt,θb)为偏差网络模型和目标网络模型的参数差异度;
步骤D3:结合参考网络模型和偏差网络模型分别与目标网络模型的参数差异度,计算噪声自适应损失,公式如下:
LossNTL=log(1+exp(Loss(θt,θr)-Loss(θt,θb)))
其中,exp(·)为指数函数,LossNTL为噪声自适应损失;
步骤D4:根据该损失,使用梯度方向传播算法计算目标网络模型各参数的梯度,并使用随机梯度下降方法更新各参数,完成网络参数自纠正过程。
步骤E:将参考网络模型替换成当前目标网络模型,重复步骤B、C、D,并按一定比例增加步骤B中未标注视频的选取比例,直到所有未标注视频被选中,得到最终的目标网络模型。
步骤F:使用目标网络模型提取查询视频和检索集的行人视频的特征,并计算查询视频和检索集视频的特征距离,递增排序该距离,得到查询视频的近邻列表,完成行人重识别。具体包括以下步骤:
步骤F1:输入查询视频和检索集的行人视频到最终训练得到的目标网络模型,根据网络的输出获得各视频的特征;
步骤F2:对于查询视频,计算其与检索集中各行人视频的特征距离,公式如下:
dis(Fq,Fg)=||Fq-Fg||2
其中,Fq为查询视频对应的特征,Fg为检索集中的一个视频的特征,dis(Fq,Fg)为查询视频和该检索集视频的特征距离;
步骤F3:按照距离,对检索集中各视频进行递增排序,排序结果就是查询视频的近邻列表,完成行人重识别。
本发明还提供了采用上述方法的行人重识别系统,如图2所示,包括参考网络模型模块、目标网络模型模块、偏差网络模型模块、噪声自适应损失模块、迭代训练模块和重识别模块。
所述参考网络模型模块用于使用已标注类标签的行人视频训练深度网络,由卷积层、最大池化层以及线性整流函数层构成,训练得到参考网络模型。
所述目标网络模型模块,用于利用参考网络模型对未标注类标签的行人视频进行伪标签估计,并选取一定比例的置信度高的行人视频训练深度网络,得到目标网络模型。
所述偏差网络模型模块,用于对选取的未标注视频,再选取一定比例的视频,对其伪标签进行随机打乱,后利用这些视频训练深度网络,得到偏差网络模型。
所述噪声自适应损失模块,用于根据参考网络模型、目标网络模型以及偏差网络模型计算噪声自适应损失,对目标网络模型中因噪声数据而产生的错误网络参数更新进行自纠正。
所述迭代训练模块,用于将参考网络模型替换成当前目标网络模型,并重复参考网络模型模块、目标网络模型模块以及偏差网络模型模块的训练过程,按一定比例增加未标注视频的选取比例,直到所有未标注视频被选中,得到最终的目标网络模型。
所述重识别模块,用于使用目标网络模型提取查询视频和检索集的行人视频的特征,并计算查询视频和检索集视频的特征距离,递增排序该距离,得到查询视频的近邻列表,完成行人重识别。
以上是本发明的较佳实施例,凡依本发明技术方案所作的改变,所产生的功能作用未超出本发明技术方案的范围时,均属于本发明的保护范围。
Claims (6)
1.一种网络参数自纠正的行人重识别方法,其特征在于,包括以下步骤:
步骤A:使用已标注类标签的行人视频训练深度网络,得到参考网络模型;
步骤B:利用参考网络模型对未标注类标签的行人视频进行伪标签估计,并选取设定比例的置信度高的行人视频训练深度网络,得到目标网络模型;
步骤C:对于选取的未标注视频,再选取设定比例的视频,对其伪标签进行随机打乱,然后利用这些视频训练深度网络,得到偏差网络模型;
步骤D:根据参考网络模型、目标网络模型以及偏差网络模型计算噪声自适应损失,对目标网络模型中因噪声数据而产生的错误网络参数更新进行自纠正;
步骤E:将参考网络模型替换成当前目标网络模型,重复步骤B、C、D,并按设定比例增加步骤B中未标注视频的选取比例,直到所有未标注视频被选中,得到最终的目标网络模型;
步骤F:使用目标网络模型提取查询视频和检索集的行人视频的特征,并计算查询视频和检索集视频的特征距离,递增排序该距离,得到查询视频的近邻列表,完成行人重识别;
所述步骤D具体包括以下步骤:
步骤D1:计算参考网络模型和目标网络模型的参数差异度,公式如下:
Loss(θt,θr)=E(log(f(θt))-log(f(θr)))
其中,E(·)为数学期望,f(·)为网络输出,f(θt)表示目标网络模型的输出,f(θr)表示参考网络模型的输出,Loss(θt,θr)为参考网络模型和目标网络模型的参数差异度;
步骤D2:计算偏差网络模型和目标网络模型的参数差异度,公式如下:
Loss(θt,θb)=E(log(f(θt))-log(f(θb)))
其中,f(θb)表示偏差网络模型的输出,Loss(θt,θb)为偏差网络模型和目标网络模型的参数差异度;
步骤D3:结合参考网络模型和偏差网络模型分别与目标网络模型的参数差异度,计算噪声自适应损失,公式如下:
LossNTL=log(1+exp(Loss(θt,θr)-Loss(θt,θb)))
其中,exp(·)为指数函数,LossNTL为噪声自适应损失;
步骤D4:根据该损失,使用梯度方向传播算法计算目标网络模型各参数的梯度,并使用随机梯度下降方法更新各参数,完成网络参数自纠正过程。
2.根据权利要求1所述的一种网络参数自纠正的行人重识别方法,其特征在于,所述步骤A中,使用已标注类标签的行人视频训练深度网络,所述深度网络由若干个卷积层、最大池化层以及线性整流函数层组成,按照下面的公式计算分类损失:
l=-log(cy)
其中,log(·)为对数函数,c为网络输出的分类向量,cy为分类向量的第y个元素,y为该视频对应的类标签,l为分类损失;根据该损失,利用梯度方向传播算法计算网络各参数的梯度,后使用随机梯度下降更新参数,得到训练后的参考网络模型。
3.根据权利要求1所述的一种网络参数自纠正的行人重识别方法,其特征在于,所述步骤B具体包括以下步骤:
步骤B1:利用参考网络模型对已标注类标签的行人视频以及未标注类标签的行人视频进行特征提取,计算未标注视频与已标注视频的特征之间的欧式距离,并选取距离最小值对应的已标注视频的类标签作为未标注视频的伪标签,该距离最小值的负值成为该伪标签估计的置信度;
步骤B2:将未标注视频按照置信度进行排序,按照设定比例选取列表中排名靠前的未标注视频组成训练集,后使用步骤A的网络训练方法训练得到目标网络模型。
4.根据权利要求1所述的一种网络参数自纠正的行人重识别方法,其特征在于,所述步骤C具体包括以下步骤:
步骤C1:对于选取的未标注视频,再选取设定比例的视频,将其伪标签随机替换成其他标签,即随机打乱伪标签;
步骤C2:使用这些选取的未标注视频组成训练集,后使用步骤A的网络训练方法训练得到偏差网络模型。
5.根据权利要求1所述的一种网络参数自纠正的行人重识别方法,其特征在于,所述步骤F具体包括以下步骤:
步骤F1:输入查询视频和检索集的行人视频到最终训练得到的目标网络模型,根据网络的输出获得各视频的特征;
步骤F2:对于查询视频,计算其与检索集中各行人视频的特征距离,公式如下:
dis(Fq,Fg)=||Fq-Fg||2
其中,Fq为查询视频对应的特征,Fg为检索集中的一个视频的特征,dis(Fq,Fg)为查询视频和该检索集视频的特征距离;
步骤F3:按照距离,对检索集中各视频进行递增排序,排序结果就是查询视频的近邻列表,完成行人重识别。
6.一种采用如权利要求1-5任一项所述方法的行人重识别系统,其特征在于,包括:
参考网络模型模块,用于使用已标注类标签的行人视频训练深度网络,由卷积层、最大池化层以及线性整流函数层构成,训练得到参考网络模型;
目标网络模型模块,用于利用参考网络模型对未标注类标签的行人视频进行伪标签估计,并选取设定比例的置信度高的行人视频训练深度网络,得到目标网络模型;
偏差网络模型模块,用于对选取的未标注视频,再选取设定比例的视频,对其伪标签进行随机打乱,后利用这些视频训练深度网络,得到偏差网络模型;
噪声自适应损失模块,用于根据参考网络模型、目标网络模型以及偏差网络模型计算噪声自适应损失,对目标网络模型中因噪声数据而产生的错误网络参数更新进行自纠正;
迭代训练模块,用于将参考网络模型替换成当前目标网络模型,并重复参考网络模型模块、目标网络模型模块以及偏差网络模型模块的训练过程,按设定比例增加未标注视频的选取比例,直到所有未标注视频被选中,得到最终的目标网络模型;以及
重识别模块,用于使用目标网络模型提取查询视频和检索集的行人视频的特征,并计算查询视频和检索集视频的特征距离,递增排序该距离,得到查询视频的近邻列表,完成行人重识别。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010065378.5A CN111274958B (zh) | 2020-01-20 | 2020-01-20 | 一种网络参数自纠正的行人重识别方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010065378.5A CN111274958B (zh) | 2020-01-20 | 2020-01-20 | 一种网络参数自纠正的行人重识别方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111274958A CN111274958A (zh) | 2020-06-12 |
CN111274958B true CN111274958B (zh) | 2022-10-04 |
Family
ID=71002120
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010065378.5A Active CN111274958B (zh) | 2020-01-20 | 2020-01-20 | 一种网络参数自纠正的行人重识别方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111274958B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111860678B (zh) * | 2020-07-29 | 2024-02-27 | 中国矿业大学 | 一种基于聚类的无监督跨域行人重识别方法 |
CN112115780A (zh) * | 2020-08-11 | 2020-12-22 | 西安交通大学 | 一种基于深度多模型协同的半监督行人重识别方法 |
CN112149733B (zh) * | 2020-09-23 | 2024-04-05 | 北京金山云网络技术有限公司 | 模型训练、质量确定方法、装置、电子设备及存储介质 |
CN112507901B (zh) * | 2020-12-14 | 2022-05-24 | 华南理工大学 | 一种基于伪标签自纠正的无监督行人重识别方法 |
CN112861935A (zh) * | 2021-01-25 | 2021-05-28 | 北京有竹居网络技术有限公司 | 模型生成方法、对象分类方法、装置、电子设备及介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103793702A (zh) * | 2014-02-28 | 2014-05-14 | 武汉大学 | 基于协同尺度学习的行人重识别方法 |
CN107832672A (zh) * | 2017-10-12 | 2018-03-23 | 北京航空航天大学 | 一种利用姿态信息设计多损失函数的行人重识别方法 |
CN110084131A (zh) * | 2019-04-03 | 2019-08-02 | 华南理工大学 | 一种基于深度卷积网络的半监督行人检测方法 |
CN110263697A (zh) * | 2019-06-17 | 2019-09-20 | 哈尔滨工业大学(深圳) | 基于无监督学习的行人重识别方法、装置及介质 |
CN110555390A (zh) * | 2019-08-09 | 2019-12-10 | 厦门市美亚柏科信息股份有限公司 | 基于半监督训练方式的行人重识别方法、装置及介质 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10579901B2 (en) * | 2017-12-05 | 2020-03-03 | Canon Kabushiki Kaisha | Method, system and apparatus for comparing objects in images |
-
2020
- 2020-01-20 CN CN202010065378.5A patent/CN111274958B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103793702A (zh) * | 2014-02-28 | 2014-05-14 | 武汉大学 | 基于协同尺度学习的行人重识别方法 |
CN107832672A (zh) * | 2017-10-12 | 2018-03-23 | 北京航空航天大学 | 一种利用姿态信息设计多损失函数的行人重识别方法 |
CN110084131A (zh) * | 2019-04-03 | 2019-08-02 | 华南理工大学 | 一种基于深度卷积网络的半监督行人检测方法 |
CN110263697A (zh) * | 2019-06-17 | 2019-09-20 | 哈尔滨工业大学(深圳) | 基于无监督学习的行人重识别方法、装置及介质 |
CN110555390A (zh) * | 2019-08-09 | 2019-12-10 | 厦门市美亚柏科信息股份有限公司 | 基于半监督训练方式的行人重识别方法、装置及介质 |
Non-Patent Citations (4)
Title |
---|
Center Based Pseudo-Labeling For Semi-Supervised Person Re-Identification;G.Ding etal.;《2018 IEEE International Conference on Multimedia & Expo Workshops (ICMEW)》;20181129;全文 * |
Pose-Guided Spatial Alignment and Key Frame Selection for One-Shot Video-Based Person Re-Identification;Y.Chen etal.;《IEEE Access》;20190613;全文 * |
基于CNN的改进行人重识别技术;熊炜 等;《计算机工程与科学》;20190430;第41卷(第4期);全文 * |
基于改进卷积神经网络的行人重识别;汪灏;《中国优秀硕士学位论文全文数据库(信息科技I辑)》;20190815;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN111274958A (zh) | 2020-06-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111274958B (zh) | 一种网络参数自纠正的行人重识别方法及系统 | |
CN108960140B (zh) | 基于多区域特征提取和融合的行人再识别方法 | |
CN111967294B (zh) | 一种无监督域自适应的行人重识别方法 | |
CN110414462B (zh) | 一种无监督的跨域行人重识别方法及系统 | |
CN113326731B (zh) | 一种基于动量网络指导的跨域行人重识别方法 | |
CN110309343B (zh) | 一种基于深度哈希的声纹检索方法 | |
CN110942091B (zh) | 寻找可靠的异常数据中心的半监督少样本图像分类方法 | |
CN114492574A (zh) | 基于高斯均匀混合模型的伪标签损失无监督对抗域适应图片分类方法 | |
CN111079847B (zh) | 一种基于深度学习的遥感影像自动标注方法 | |
CN110188827B (zh) | 一种基于卷积神经网络和递归自动编码器模型的场景识别方法 | |
CN113034545A (zh) | 一种基于CenterNet多目标跟踪算法的车辆跟踪方法 | |
CN111967325A (zh) | 一种基于增量优化的无监督跨域行人重识别方法 | |
CN111259837B (zh) | 一种基于部位注意力的行人重识别方法及系统 | |
CN111125397B (zh) | 一种基于卷积神经网络的布料图像检索方法 | |
CN113627266A (zh) | 基于Transformer时空建模的视频行人重识别方法 | |
CN112084895B (zh) | 一种基于深度学习的行人重识别方法 | |
CN112115780A (zh) | 一种基于深度多模型协同的半监督行人重识别方法 | |
CN114676769A (zh) | 一种基于视觉Transformer的小样本昆虫图像识别方法 | |
CN116128944A (zh) | 一种基于特征交互和可靠对应关系估计的三维点云配准方法 | |
CN114329031A (zh) | 一种基于图神经网络和深度哈希的细粒度鸟类图像检索方法 | |
CN116910571B (zh) | 一种基于原型对比学习的开集域适应方法及系统 | |
CN114973099A (zh) | 一种基于可回溯目标识别的智能寻物方法及系统 | |
CN113032612B (zh) | 一种多目标图像检索模型的构建方法及检索方法和装置 | |
CN115049894A (zh) | 一种基于图学习的全局结构信息嵌入网络的目标重识别方法 | |
CN115100694A (zh) | 一种基于自监督神经网络的指纹快速检索方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |