CN112052819A - 一种行人重识别方法、装置、设备及存储介质 - Google Patents
一种行人重识别方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN112052819A CN112052819A CN202010969014.XA CN202010969014A CN112052819A CN 112052819 A CN112052819 A CN 112052819A CN 202010969014 A CN202010969014 A CN 202010969014A CN 112052819 A CN112052819 A CN 112052819A
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- feature extraction
- extraction model
- data set
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 59
- 238000000605 extraction Methods 0.000 claims abstract description 114
- 238000012549 training Methods 0.000 claims abstract description 38
- 238000003062 neural network model Methods 0.000 claims abstract description 36
- 238000010606 normalization Methods 0.000 claims abstract description 25
- 238000010586 diagram Methods 0.000 description 8
- 238000009826 distribution Methods 0.000 description 7
- 238000005286 illumination Methods 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 5
- 238000004590 computer program Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000002372 labelling Methods 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000000802 evaporation-induced self-assembly Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000003064 k means clustering Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/53—Recognition of crowd images, e.g. recognition of crowd congestion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种行人重识别方法,包括:在神经网络模型中加入实例归一化模块,得到改进后的神经网络模型;根据源数据集和所述改进后的神经网络模型训练初始特征提取模型;将目标数据集输入所述初始特征提取模型,得到行人特征;对所述行人特征进行聚类,根据聚类结果生成与所述行人特征对应的标签集合;根据所述目标数据集和所述标签集合调整所述初始特征提取模型,得到训练好的特征提取模型;根据所述训练好的特征提取模型识别行人。本发明公开的行人重识别方法,可以提升模型的泛化性能以及在目标域的性能,提升识别的准确率和效率。
Description
技术领域
本发明涉及图像分析技术领域,特别涉及一种行人重识别方法、装置、设备及存储介质。
背景技术
行人重识别的核心目标是判断图像或者视频序列中是否存在特定行人,近年来,伴随着大数据集合的出现以及深度卷积神经网络的发展,行人重识别的性能不断攀升。
目前主流的方法是构建一个行人重识别的数据集,然后利用深度神经网络在该数据集上训练一个特征提取模型,通过该模型提取行人特征。但是由于不同数据集之间在摄像头分辨率、摄像头角度、环境背景、光照、季节等方面有差异,不同数据集甚至相同数据集内的不同摄像头采集的数据分布通常不相同。而且,现有的模型无法很好地处理光照、风格等变化,这就导致在源数据集合上训练的模型直接应用于另一个目标数据集合进行行人搜索的时候,行人重识别性能会出现大幅度的下降。一种解决办法是对目标数据集进行人工标注,然后利用目标数据集和人工标签信息对已有模型进行微调,然而,标注数据是非常耗时且昂贵的,在现实应用中,经常需要布置大量的摄像头,每个摄像头的数据分布都与训练数据的分布不一致,对每一个摄像头标注数据基本是不可行的。
发明内容
本公开实施例提供了一种行人重识别方法、装置、设备及存储介质。为了对披露的实施例的一些方面有一个基本的理解,下面给出了简单的概括。该概括部分不是泛泛评述,也不是要确定关键/重要组成元素或描绘这些实施例的保护范围。其唯一目的是用简单的形式呈现一些概念,以此作为后面的详细说明的序言。
第一方面,本公开实施例提供了一种行人重识别方法,包括:
在神经网络模型中加入实例归一化模块,得到改进后的神经网络模型;
根据源数据集和改进后的神经网络模型训练初始特征提取模型;
将目标数据集输入初始特征提取模型,得到行人特征;
对行人特征进行聚类,根据聚类结果生成与行人特征对应的标签集合;
根据目标数据集和标签集合调整初始特征提取模型,得到训练好的特征提取模型;
根据训练好的特征提取模型识别行人。
可选地,根据源数据集和改进后的神经网络模型训练初始特征提取模型,包括:
将源数据集中的行人图像和标签信息输入改进后的神经网络模型进行训练,得到初始特征提取模型。
可选地,根据目标数据集和标签集合调整初始特征提取模型,得到训练好的特征提取模型,包括:
根据目标数据集和标签集合重新训练特征提取模型,得到重新训练的特征提取模型;
判断重新训练的特征提取模型是否收敛;
当模型收敛时,重新训练的特征提取模型为训练好的特征提取模型。
可选地,当重新训练的特征提取模型不收敛时,还包括:
将目标数据集输入重新训练的特征提取模型,得到行人特征;
对行人特征进行聚类,根据聚类结果生成与行人特征对应的标签集合;
根据目标数据集和标签集合重新训练特征提取模型,再次得到重新训练的特征提取模型;
重复执行上述步骤,直到重新训练的特征提取模型收敛。
可选地,根据训练好的特征提取模型识别行人,包括:
将待检测的行人图像输入到训练好的特征提取模型,得到提取出来的行人特征;
将提取出来的行人特征与预先建立的行人特征库中的特征进行对比,得到特征相似度;
当特征相似度大于等于预设阈值时,确定目标数据集中包含该行人。
可选地,将提取出来的行人特征与预先建立的行人特征库中的特征进行对比之前,还包括:
将目标数据集输入训练好的特征提取模型;
根据提取出来的行人特征建立行人特征库。
第二方面,本公开实施例提供了一种行人重识别装置,包括:
添加模块,用于在神经网络模型中加入实例归一化模块,得到改进后的神经网络模型;
第一训练模块,用于根据源数据集和改进后的神经网络模型训练初始特征提取模型;
提取模块,用于将目标数据集输入初始特征提取模型,得到行人特征;
聚类模块,用于对行人特征进行聚类,根据聚类结果生成与行人特征对应的标签集合;
第二训练模块,用于根据目标数据集和标签集合调整初始特征提取模型,得到训练好的特征提取模型;
识别模块,用于根据训练好的特征提取模型识别行人。
可选地,第一训练模块,具体用于将源数据集中的行人图像和标签信息输入改进后的神经网络模型进行训练,得到初始特征提取模型。
第三方面,本公开实施例提供了一种行人重识别设备,包括处理器和存储有程序指令的存储器,处理器被配置为在执行程序指令时,执行上述实施例提供的行人重识别方法。
第四方面,本公开实施例提供了一种计算机可读介质,其上存储有计算机可读指令,计算机可读指令可被处理器执行以实现上述实施例提供的一种行人重识别方法。
本公开实施例提供的技术方案可以包括以下有益效果:
本公开实施例提供的行人重识别方法,首先在神经网络中加入实例归一化模块,加入实例归一化模块可以提升模型本身对光照、风格变化的泛化能力,然后利用源数据集训练一个初始特征提取模型,将目标数据集输入该初始特征提取模型,得到行人特征,对得到的行人特征聚类,根据聚类结果自动给目标数据集贴上伪标签,并利用伪标签对模型进行调整。伪标签训练的方法可以使得模型更加适应目标数据集的分布,提升模型的泛化性能以及在目标域的性能,提升识别的准确率和效率。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本发明。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并与说明书一起用于解释本发明的原理。
图1是根据一示例性实施例示出的一种行人重识别方法的流程示意图;
图2是根据一示例性实施例示出的另一种行人重识别方法的流程示意图;
图3是根据一示例性实施例示出的一种行人重识别方法的示意图;
图4是根据一示例性实施例示出的一种添加实例归一化模块的示意图;
图5是根据一示例性实施例示出的一种行人重识别装置的结构示意图;
图6是根据一示例性实施例示出的一种行人重识别设备的结构示意图;
图7是根据一示例性实施例示出的一种计算机存储介质的示意图。
具体实施方式
为了能够更加详尽地了解本公开实施例的特点与技术内容,下面结合附图对本公开实施例的实现进行详细阐述,所附附图仅供参考说明之用,并非用来限定本公开实施例。在以下的技术描述中,为方便解释起见,通过多个细节以提供对所披露实施例的充分理解。然而,在没有这些细节的情况下,一个或一个以上实施例仍然可以实施。在其它情况下,为简化附图,熟知的结构和装置可以简化展示。
本公开实施例的行人重识别方法,将实例归一化和目标域伪标签训练方法统一起来,在网络中加入实例归一化模块可以提升模型本身对光照、风格变化的泛化能力,伪标签训练的方法可以使得模型更加适应目标数据集的分布,综合二者可以大大提升模型的泛化性能以及在目标域的性能,提升行人重识别的准确率和效率。
下面将结合附图1-附图7,对本申请实施例提供的行人重识别方法、装置、设备及存储介质进行详细介绍。
参见图1,该方法具体包括以下步骤;
步骤S101、在神经网络模型中加入实例归一化模块,得到改进后的神经网络模型;
具体地,在初始特征提取模型的训练阶段,首先在神经网络模型中加入实例归一化模块,得到改进后的神经网络模型。例如,可以在传统的ResNet网络模型、Googlenet网络模型或者Mobilenet网络模型中加入实例归一化模块,本公开实施例不限制具体的神经网络模型,本领域技术人员可根据需要自行选择。
神经网络的前几层提取的是图像的底层信息,在这些层加入实例归一化模块,可以有效地去除光照、背景等因素的影响,网络因此能够更好的学习到不同数据集中的不变特征。
具体地,实例归一化模块将神经网络中的特征图中的每个通道的数据映射到均值为0,方差为1的标准正太分布,使得特征图对输入图像的明暗、颜色变化不敏感。
在一种可能的实现方式中,对于某张输入图像,其在神经网络的某一层对应的特征图为X,首先求出特征图X中每个通道的均值,即:
其中,Xilm表示特征图中第i个通道,坐标为(l,m)的像素点的值,Ui表示第i个通道的均值,H表示特征图的高度,W表示特征图的宽度。
然后求出每个通道的方差,即:
最终,将特征图上每个点减去所属通道的均值,并除以所属通道的标准差,得到实例归一化之后的结果,即:
下面以残差网络ResNet50为例,描述如何在网络中加入实例归一化模块,如图4所示,左半部分为原始的残差网络bottleneck模块,右半部分在左半部分的基础上,在输出端的RELU模块之前加入了实例归一化(Instance normalization,IN)模块。实例归一化模块可以加在ResNet50的较浅层网络,例如可以加在第一、第二、第三个block的最后一个bottleneck模块中。
通过该步骤,在神经网络模型中加入实例归一化模块,可以提升模型本身对图片光照、风格变化的泛化能力,实验结果表明,仅仅是修改骨干网络而不利用任何目标域的数据,就可以有效提升模型在目标数据集的性能。
步骤S102、根据源数据集和改进后的神经网络模型训练初始特征提取模型;
其中,源数据集中包含大量的行人图像,和预先标注好的与行人图像对应的标签信息,将源数据集中的行人图像和标签信息输入改进后的神经网络模型进行训练,提取行人特征,得到初始特征提取模型。在一种可能的实现方式中,可以从网络中自行下载源数据集,也可从是视频流数据中获取行人图像,然后对获取到的行人图像进行人工标注,得到源数据集。
步骤S103、将目标数据集输入初始特征提取模型,得到行人特征;
其中,目标数据集为待检测的行人图像或视频数据,目标数据集中包含大量的行人图像,但不包含标签信息,将目标数据集输入该初始特征提取模型,进行特征提取,得到行人特征。
步骤S104、对行人特征进行聚类,根据聚类结果生成与行人特征对应的标签集合;
为了解决人工贴标签费时费力的问题,本公开实施例采用聚类算法自动对目标数据集中的行人特征贴标签。首先,对行人特征进行聚类运算,可以采用K-means聚类算法、DBSCAN聚类算法或者OPTICS聚类算法,根据聚类结果给目标数据集贴上对应的伪标签,相同类别的数据有相同的标签,不同类别的数据有不同的标签。
通过该步骤,可以通过聚类运算的方法挖掘无标注样本的潜在相似性,得到目标数据集对应的标签集合。
步骤S105、根据目标数据集和标签集合调整初始特征提取模型,得到训练好的特征提取模型;
在一种可能的实现方式中,根据目标数据集和得到的标签集合重新训练特征提取模型,得到一个新的模型后,用该新模型继续对目标数据集提取特征,继续进行聚类运算、贴标签、重新训练模型的过程,反复进行这样的聚类训练过程,直到得到的新模型收敛。
具体地,根据目标数据集和得到的标签集合重新训练特征提取模型,得到重新训练的特征提取模型,判断重新训练的特征提取模型是否收敛,当模型收敛时,将重新训练的特征提取模型作为训练好的特征提取模型。
当重新训练的特征提取模型不收敛时,还包括将目标数据集输入重新训练的特征提取模型,得到行人特征,继续对行人特征进行聚类,根据聚类结果生成与行人特征对应的标签集合,根据目标数据集和新得到的标签集合继续训练新的模型,再次得到重新训练的特征提取模型,重复执行上述步骤,直到重新训练的特征提取模型收敛。
在另一种可能的实现方式中,根据目标数据集和得到的标签集合重新训练特征提取模型,得到一个新的模型后,用该新模型继续对目标数据集提取特征,继续进行聚类运算、贴标签、重新训练模型的过程,反复进行预设次数的重新训练过程,将最后一次得到的模型作为训练好的特征提取模型,本公开实施例对训练次数不做具体限定,本领域技术人员可自行设置。
步骤S106、根据训练好的特征提取模型识别行人。
具体地,将待检测的行人图像输入到训练好的特征提取模型,得到提取出来的行人特征,将目标数据集输入训练好的特征提取模型,根据提取出来的特征建立行人特征库。
然后将提取出来的待检测的行人特征与行人特征库中的特征进行对比,得到特征相似度,将得到的特征相似度与预设阈值进行比较,当特征相似度大于等于预设阈值时,确定该目标数据集中包含待检测的行人,当特征相似度小于预设阈值时,确定该目标数据集中不包含该待检测的行人。其中,预设阈值本领域技术人员可自行设定。
为了便于理解本申请实施例提供的行人重识别方法,下面结合附图2进行说明。如图2所示,该方法包括:
S201、在神经网络模型中加入实例归一化模块,得到改进后的神经网络模型;
S202、根据源数据集和改进后的神经网络模型训练初始特征提取模型;
S203、将目标数据集输入初始特征提取模型,得到行人特征;
S204、对行人特征进行聚类,根据聚类结果生成与行人特征对应的标签集合;
S205、根据目标数据集和标签集合重新训练特征提取模型,得到重新训练的特征提取模型;
S206、判断重新训练的特征提取模型是否收敛,当模型收敛时,执行步骤S207、重新训练的特征提取模型为训练好的特征提取模型;当模型不收敛时,执行步骤S208、将目标数据集输入重新训练的特征提取模型,得到行人特征;
S207、重新训练的特征提取模型为训练好的特征提取模型;
S208、将目标数据集输入重新训练的特征提取模型,得到行人特征;
S209、对行人特征进行聚类,根据聚类结果生成与行人特征对应的标签集合;
S210、根据目标数据集和标签集合重新训练特征提取模型,再次得到重新训练的特征提取模型;
S211、将待检测的行人图像输入到训练好的特征提取模型,得到提取出来的行人特征;
S212、将目标数据集输入训练好的特征提取模型,建立行人特征库;
S213、将提取出来的行人特征与预先建立的行人特征库中的特征进行对比,得到特征相似度;
S214、判断相似度是否大于等于预设阈值,当相似度大于等于预设阈值时,执行步骤S215、确定目标数据集中包含该行人;当相似度小于预设阈值时,执行步骤S216、确定目标数据集中不包含该行人;
S215、确定目标数据集中包含该行人;
S216、确定目标数据集中不包含该行人。
为了便于理解本申请实施例提供的行人重识别方法,下面结合附图3进行说明。如图3所示,
该方法包含三个阶段,分别为训练阶段、行人特征库建立阶段以及测试阶段,在训练阶段,首先将源数据集加入添加了实例归一化模块的网络模型,进行训练,得到初始特征提取模型。然后,将目标数据集输入初始网络模型,提取特征,得到行人特征,对行人特征进行聚类,根据聚类结果得到目标数据集的伪标签,利用伪标签和目标数据集重新训练网络模型,得到新的网络模型,用新的网络模型替代初始网络模型,反复进行模型的训练,直到得到的新的模型收敛。训练阶段完成后,进入行人特征库建立阶段,将目标图像数据集输入训练好的特征提取模型,根据提取出来的特征建立行人特征库。最后进入测试阶段,将待检索的行人图像输入训练好的特征提取模型,得到提取出来的带搜索的行人的特征,将该行人特征与行人特征库中的特征进行对比,根据特征相似度判断目标数据集中是否包含待搜索的行人。
本公开实施例提供的行人重识别方法,将实例归一化和目标域伪标签训练方法统一起来,大大提升了模型的泛化性能以及在目标域的性能,提升了识别的准确率和效率。
第二方面,本公开实施例提供了一种行人重识别装置,如图5所示,包括:
添加模块501,用于在神经网络模型中加入实例归一化模块,得到改进后的神经网络模型;
第一训练模块502,用于根据源数据集和改进后的神经网络模型训练初始特征提取模型;
提取模块503,用于将目标数据集输入初始特征提取模型,得到行人特征;
聚类模块504,用于对行人特征进行聚类,根据聚类结果生成与行人特征对应的标签集合;
第二训练模块505,用于根据目标数据集和标签集合调整初始特征提取模型,得到训练好的特征提取模型;
识别模块506,用于根据训练好的特征提取模型识别行人。
可选地,第一训练模块,具体用于将源数据集中的行人图像和标签信息输入改进后的神经网络模型进行训练,得到初始特征提取模型。
需要说明的是,上述实施例提供的行人重识别装置在执行行人重识别方法时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的行人重识别装置与行人重识别方法实施例属于同一构思,其体现实现过程详见方法实施例,这里不再赘述。
第三方面,本公开实施例还提供一种与前述实施例所提供的行人重识别方法对应的电子设备,以执行上述行人重识别方法。
请参考图6,其示出了本申请的一些实施例所提供的一种电子设备的示意图。如图6所示,电子设备包括:处理器600,存储器601,总线602和通信接口603,处理器600、通信接口603和存储器601通过总线602连接;存储器601中存储有可在处理器600上运行的计算机程序,处理器600运行计算机程序时执行本申请前述任一实施例所提供的行人重识别方法。
其中,存储器601可能包含高速随机存取存储器(RAM:Random Access Memory),也可能还包括非不稳定的存储器(non-volatile memory),例如至少一个磁盘存储器。通过至少一个通信接口603(可以是有线或者无线)实现该系统网元与至少一个其他网元之间的通信连接,可以使用互联网、广域网、本地网、城域网等。
总线602可以是ISA总线、PCI总线或EISA总线等。总线可以分为地址总线、数据总线、控制总线等。其中,存储器601用于存储程序,处理器600在接收到执行指令后,执行程序,前述本申请实施例任一实施方式揭示的行人重识别方法可以应用于处理器600中,或者由处理器600实现。
处理器600可能是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过处理器600中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器600可以是通用处理器,包括中央处理器(Central Processing Unit,简称CPU)、网络处理器(Network Processor,简称NP)等;还可以是数字信号处理器(DSP)、专用集成电路(ASIC)、现成可编程门阵列(FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本申请实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本申请实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器601,处理器600读取存储器601中的信息,结合其硬件完成上述方法的步骤。
本申请实施例提供的电子设备与本申请实施例提供的行人重识别方法出于相同的发明构思,具有与其采用、运行或实现的方法相同的有益效果。
第四方面,本申请实施例还提供一种与前述实施例所提供的行人重识别方法对应的计算机可读存储介质,请参考图7,其示出的计算机可读存储介质为光盘700,其上存储有计算机程序(即程序产品),计算机程序在被处理器运行时,会执行前述任意实施例所提供的行人重识别方法。
需要说明的是,计算机可读存储介质的例子还可以包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他光学、磁性存储介质,在此不再一一赘述。
本申请的上述实施例提供的计算机可读存储介质与本申请实施例提供的行人重识别方法出于相同的发明构思,具有与其存储的应用程序所采用、运行或实现的方法相同的有益效果。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。
Claims (10)
1.一种行人重识别方法,其特征在于,包括:
在神经网络模型中加入实例归一化模块,得到改进后的神经网络模型;
根据源数据集和所述改进后的神经网络模型训练初始特征提取模型;
将目标数据集输入所述初始特征提取模型,得到行人特征;
对所述行人特征进行聚类,根据聚类结果生成与所述行人特征对应的标签集合;
根据所述目标数据集和所述标签集合调整所述初始特征提取模型,得到训练好的特征提取模型;
根据所述训练好的特征提取模型识别行人。
2.根据权利要求1所述的方法,其特征在于,所述根据源数据集和所述改进后的神经网络模型训练初始特征提取模型,包括:
将源数据集中的行人图像和标签信息输入所述改进后的神经网络模型进行训练,得到初始特征提取模型。
3.根据权利要求1所述的方法,其特征在于,所述根据所述目标数据集和所述标签集合调整所述初始特征提取模型,得到训练好的特征提取模型,包括:
根据所述目标数据集和所述标签集合重新训练特征提取模型,得到重新训练的特征提取模型;
判断所述重新训练的特征提取模型是否收敛;
当模型收敛时,所述重新训练的特征提取模型为所述训练好的特征提取模型。
4.根据权利要求3所述的方法,其特征在于,当所述重新训练的特征提取模型不收敛时,还包括:
将所述目标数据集输入所述重新训练的特征提取模型,得到行人特征;
对所述行人特征进行聚类,根据聚类结果生成与所述行人特征对应的标签集合;
根据所述目标数据集和所述标签集合重新训练特征提取模型,再次得到重新训练的特征提取模型;
重复执行上述步骤,直到重新训练的特征提取模型收敛。
5.根据权利要求1所述的方法,其特征在于,根据所述训练好的特征提取模型识别行人,包括:
将待检测的行人图像输入到所述训练好的特征提取模型,得到提取出来的行人特征;
将所述提取出来的行人特征与预先建立的行人特征库中的特征进行对比,得到特征相似度;
当所述特征相似度大于等于预设阈值时,确定所述目标数据集中包含该行人。
6.根据权利要求5所述的方法,其特征在于,将所述提取出来的行人特征与预先建立的行人特征库中的特征进行对比之前,还包括:
将所述目标数据集输入所述训练好的特征提取模型;
根据提取出来的行人特征建立所述行人特征库。
7.一种行人重识别装置,其特征在于,包括:
添加模块,用于在神经网络模型中加入实例归一化模块,得到改进后的神经网络模型;
第一训练模块,用于根据源数据集和所述改进后的神经网络模型训练初始特征提取模型;
提取模块,用于将目标数据集输入所述初始特征提取模型,得到行人特征;
聚类模块,用于对所述行人特征进行聚类,根据聚类结果生成与所述行人特征对应的标签集合;
第二训练模块,用于根据所述目标数据集和所述标签集合调整所述初始特征提取模型,得到训练好的特征提取模型;
识别模块,用于根据所述训练好的特征提取模型识别行人。
8.根据权利要求7所述的装置,其特征在于,所述第一训练模块,具体用于将源数据集中的行人图像和标签信息输入所述改进后的神经网络模型进行训练,得到初始特征提取模型。
9.一种行人重识别设备,其特征在于,包括处理器和存储有程序指令的存储器,其特征在于,所述处理器被配置为在执行所述程序指令时,执行如权利要求1至6任一项所述的行人重识别方法。
10.一种计算机可读介质,其特征在于,其上存储有计算机可读指令,所述计算机可读指令可被处理器执行以实现如权利要求1至6任一项所述的一种行人重识别方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010969014.XA CN112052819A (zh) | 2020-09-15 | 2020-09-15 | 一种行人重识别方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010969014.XA CN112052819A (zh) | 2020-09-15 | 2020-09-15 | 一种行人重识别方法、装置、设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112052819A true CN112052819A (zh) | 2020-12-08 |
Family
ID=73602960
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010969014.XA Pending CN112052819A (zh) | 2020-09-15 | 2020-09-15 | 一种行人重识别方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112052819A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112686135A (zh) * | 2020-12-29 | 2021-04-20 | 中南大学 | 基于分布拟合的可泛化的行人重识别方法 |
CN112926427A (zh) * | 2021-02-18 | 2021-06-08 | 浙江智慧视频安防创新中心有限公司 | 一种目标用户着装属性识别方法及装置 |
WO2023123923A1 (zh) * | 2021-12-30 | 2023-07-06 | 深圳云天励飞技术股份有限公司 | 人体重识别方法、人体重识别装置、计算机设备及介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109102025A (zh) * | 2018-08-15 | 2018-12-28 | 电子科技大学 | 基于深度学习联合优化的行人重识别方法 |
CN109147010A (zh) * | 2018-08-22 | 2019-01-04 | 广东工业大学 | 带属性人脸图像生成方法、装置、系统及可读存储介质 |
CN109671018A (zh) * | 2018-12-12 | 2019-04-23 | 华东交通大学 | 一种基于生成式对抗网络和ResNets技术的图像转换方法及系统 |
CN110135295A (zh) * | 2019-04-29 | 2019-08-16 | 华南理工大学 | 一种基于迁移学习的无监督行人重识别方法 |
CN110135375A (zh) * | 2019-05-20 | 2019-08-16 | 中国科学院宁波材料技术与工程研究所 | 基于全局信息整合的多人姿态估计方法 |
WO2019206265A1 (zh) * | 2018-04-26 | 2019-10-31 | 北京京东尚科信息技术有限公司 | 行人重识别方法和装置 |
CN111435437A (zh) * | 2019-12-26 | 2020-07-21 | 珠海大横琴科技发展有限公司 | 一种pcb行人重识别模型训练方法及pcb行人重识别方法 |
CN111583165A (zh) * | 2019-02-19 | 2020-08-25 | 京东方科技集团股份有限公司 | 图像处理方法、装置、设备及存储介质 |
-
2020
- 2020-09-15 CN CN202010969014.XA patent/CN112052819A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019206265A1 (zh) * | 2018-04-26 | 2019-10-31 | 北京京东尚科信息技术有限公司 | 行人重识别方法和装置 |
CN109102025A (zh) * | 2018-08-15 | 2018-12-28 | 电子科技大学 | 基于深度学习联合优化的行人重识别方法 |
CN109147010A (zh) * | 2018-08-22 | 2019-01-04 | 广东工业大学 | 带属性人脸图像生成方法、装置、系统及可读存储介质 |
CN109671018A (zh) * | 2018-12-12 | 2019-04-23 | 华东交通大学 | 一种基于生成式对抗网络和ResNets技术的图像转换方法及系统 |
CN111583165A (zh) * | 2019-02-19 | 2020-08-25 | 京东方科技集团股份有限公司 | 图像处理方法、装置、设备及存储介质 |
CN110135295A (zh) * | 2019-04-29 | 2019-08-16 | 华南理工大学 | 一种基于迁移学习的无监督行人重识别方法 |
CN110135375A (zh) * | 2019-05-20 | 2019-08-16 | 中国科学院宁波材料技术与工程研究所 | 基于全局信息整合的多人姿态估计方法 |
CN111435437A (zh) * | 2019-12-26 | 2020-07-21 | 珠海大横琴科技发展有限公司 | 一种pcb行人重识别模型训练方法及pcb行人重识别方法 |
Non-Patent Citations (1)
Title |
---|
邱锡鹏等: "《神经网络与深度学习》", 机械工业出版社, pages: 176 - 178 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112686135A (zh) * | 2020-12-29 | 2021-04-20 | 中南大学 | 基于分布拟合的可泛化的行人重识别方法 |
CN112686135B (zh) * | 2020-12-29 | 2022-10-14 | 中南大学 | 基于分布拟合的可泛化的行人重识别方法 |
CN112926427A (zh) * | 2021-02-18 | 2021-06-08 | 浙江智慧视频安防创新中心有限公司 | 一种目标用户着装属性识别方法及装置 |
WO2023123923A1 (zh) * | 2021-12-30 | 2023-07-06 | 深圳云天励飞技术股份有限公司 | 人体重识别方法、人体重识别装置、计算机设备及介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Rocco et al. | Efficient neighbourhood consensus networks via submanifold sparse convolutions | |
Fan et al. | Multi-level contextual rnns with attention model for scene labeling | |
CN111027493B (zh) | 一种基于深度学习多网络软融合的行人检测方法 | |
CN112052819A (zh) | 一种行人重识别方法、装置、设备及存储介质 | |
CN110073367B (zh) | 用于零样本学习的利用基于soft-max的兼容性函数的多视图嵌入 | |
CN110363049B (zh) | 图形元素检测识别和类别确定的方法及装置 | |
JP2016134175A (ja) | ワイルドカードを用いてテキスト−画像クエリを実施するための方法およびシステム | |
Hou et al. | Evaluation of object proposals and convnet features for landmark-based visual place recognition | |
CN109034086B (zh) | 车辆重识别方法、装置及系统 | |
He et al. | Aggregating local context for accurate scene text detection | |
CN112052907A (zh) | 基于图像边缘信息的目标检测方法、装置及存储介质 | |
WO2019100348A1 (zh) | 图像检索方法和装置以及图像库的生成方法和装置 | |
CN113361643A (zh) | 基于深度学习的通用标志识别方法、系统、设备及存储介质 | |
JP2008251029A (ja) | 文字認識装置、ナンバープレート認識システム | |
CN114168768A (zh) | 图像检索方法及相关设备 | |
CN113744280A (zh) | 图像处理方法、装置、设备及介质 | |
WO2023207535A1 (zh) | 一种伪标签框生成方法、装置及电子设备 | |
KR102026280B1 (ko) | 딥 러닝을 이용한 씬 텍스트 검출 방법 및 시스템 | |
Tian et al. | Focal text: An accurate text detection with focal loss | |
CN116994332A (zh) | 基于轮廓图引导的跨模态行人重识别方法及系统 | |
CN112241736A (zh) | 一种文本检测的方法及装置 | |
Pourian et al. | Pixnet: A localized feature representation for classification and visual search | |
CN111695441B (zh) | 图像文档处理方法、装置及计算机可读存储介质 | |
CN111915703B (zh) | 一种图像生成方法和装置 | |
CN111967426A (zh) | 车辆重识别方法、装置、电子设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20201208 |
|
RJ01 | Rejection of invention patent application after publication |