CN112766218B - 基于非对称联合教学网络的跨域行人重识别方法和装置 - Google Patents

基于非对称联合教学网络的跨域行人重识别方法和装置 Download PDF

Info

Publication number
CN112766218B
CN112766218B CN202110131889.7A CN202110131889A CN112766218B CN 112766218 B CN112766218 B CN 112766218B CN 202110131889 A CN202110131889 A CN 202110131889A CN 112766218 B CN112766218 B CN 112766218B
Authority
CN
China
Prior art keywords
samples
reliability
sample
model
pedestrian
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110131889.7A
Other languages
English (en)
Other versions
CN112766218A (zh
Inventor
罗丽洁
韩华
黄丽
张玉金
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai University of Engineering Science
Original Assignee
Shanghai University of Engineering Science
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai University of Engineering Science filed Critical Shanghai University of Engineering Science
Priority to CN202110131889.7A priority Critical patent/CN112766218B/zh
Publication of CN112766218A publication Critical patent/CN112766218A/zh
Application granted granted Critical
Publication of CN112766218B publication Critical patent/CN112766218B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于非对称联合教学网络的跨域行人重识别方法和装置,该方法包括:采用带标签的源域行人图像对主模型进行预训练;将不带标签的目标域行人图像载入预训练后的主模型中进行特征提取;利用提取出的特征对目标域行人图像进行密度聚类;从而对目标域行人图像打上伪标签;采用原型相似性度量方法对打上伪标签的目标域行人图像进行可信度评估,得到高可信度样本和低可信度样本,并载入预先建立的非对称联合教学网络中进行迭代训练,非对称联合教学网络包括相互连接的主模型和协作模型,采用训练后的主模型进行行人重识别。与现有技术相比,本发明具有可以有效的解决伪标签噪声问题,提高行人重识别模型的准确性等优点。

Description

基于非对称联合教学网络的跨域行人重识别方法和装置
技术领域
本发明涉及跨域行人重识别领域,尤其是涉及基于非对称联合教学网络的跨域行人重识别方法和装置。
背景技术
随着经济社会和现代化的不断发展,摄像监控设备不断地升级和普及,各个行业对监控摄像机网络的应用需求也呈现出日益增长的趋势,行人重识别在各种监视应用中发挥着重要作用,如行人检索和公共安全事件检测。行人重识别是利用一张查询图像,从一个大规模的图像集中准确地找到同一个人的所有图像,其中查询图像和图像集中图像是来自不同相机拍摄的没有重叠部分的图片,即确认不同位置的摄像头在不同的时刻拍摄到的行人目标是否为同一人。
最初的行人重识别方法往往依赖于手工提取特征为数据集做标记,这么做不仅费时费力而且性能一直很低。近年来随着深度学习算法的不断发展和大规模行人重识别数据集的出现,行人重识别技术在一些标准公开数据集上的测试准确率已经得到了显著提高。深度学习算法的优势在于卷积神经网络可以自动提取行人特征,通过计算特征间的距离,判断相似度,经过多次迭代训练增强模型的鲁棒性。但是,目前大多数行人重识别模型普遍面临同样一个问题:如果训练模型的训练集和评估模型的测试集来自不同的域时,模型性能会有明显下降,这意味着把在一个场景下训练得到的模型迁移到另一个新的场景中进行测试时往往难以得到令人满意的效果。目前常见的方法之一是用源域预训练模型为目标域的图片打上伪标签。然而在伪标签中可能包含有许多噪声标签,模型的训练往往被伪标签噪声干扰,影响了行人重识别模型的性能。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种可以有效的解决伪标签噪声问题,提高行人重识别模型的准确性的基于非对称联合教学网络的跨域行人重识别方法和装置。
本发明的目的可以通过以下技术方案来实现:
一种基于非对称联合教学网络的跨域行人重识别方法,包括以下步骤:
采用带标签的源域行人图像对预先建立的主模型进行预训练;
将不带标签的目标域行人图像输入预训练后的主模型中进行特征提取;
利用所述提取出的特征对所述目标域行人图像进行密度聚类;根据该密度聚类的结果对所述目标域行人图像打上伪标签;
采用原型相似性度量方法对所述打上伪标签的目标域行人图像进行可信度评估,得到高可信度样本和低可信度样本;
将所述高可信度样本和低可信度样本载入预先建立的非对称联合教学网络中进行迭代训练,所述非对称联合教学网络包括相互连接的所述主模型和协作模型,采用训练后的非对称联合教学网络的主模型进行行人重识别。
进一步地,所述主模型采用在ImageNet上预训练过的ResNet50作为主干网络,用步幅为1的卷积层将ResNet50最后一个block中步幅为2的卷积层替换。
进一步地,采用三元组损失和交叉熵损失作为损失函数,对所述主模型进行预训练。
进一步地,所述原型相似性度量方法包括以下步骤:
将所述打上伪标签的目标域行人图像记为样本,对于每一种类型的样本,提取出这些样本的中心点,作为该种类型样本的原型,所述原型的计算公式如下:
Figure BDA0002925656240000021
式中,
Figure BDA0002925656240000022
表示在目标域行人图像集/>
Figure BDA0002925656240000023
中打上伪标签
Figure BDA0002925656240000024
的样本合集,/>
Figure BDA0002925656240000025
为目标域行人图像集中的样本;
采用欧式距离计算标注上同一伪标签的样本合集与它们原型之间的距离,该距离的计算表达式为:
Figure BDA0002925656240000026
式中,
Figure BDA0002925656240000027
为打上了伪标签/>
Figure BDA0002925656240000028
样本的原型,/>
Figure BDA0002925656240000029
为原型相似性。
进一步地,所述高可信度样本和低可信度样本的获取具体为:
当样本的所述原型相似性大于预设的相似阈值时,为高可信度样本,当样本的所述原型相似性小于预设的相似阈值时,为低可信度样本。
进一步地,所述非对称联合教学网络中的迭代训练过程具体为:
所述主模型的训练包括从所述低可信度样本中选取部分样本构造低可信度三元组,通过所述协作模型计算所述低可信度三元组的损失,选取低可信度三元组中损失较小的部分锚点以及所述高可信度样本的部分样本对所述主模型进行一轮微调;
所述协作模型的训练包括从所述高可信度样本中选取部分样本构造高可信度三元组,通过所述主模型计算所述高可信度三元组的损失,选取高可信度三元组中损失较小的部分锚点以及所述低可信度样本的部分样本对所述协作模型进行一轮微调;
对所述主模型和协作模型进行迭代训练,直至达到预设的训练条件。
本发明还提供一种基于非对称联合教学网络的跨域行人重识别装置,包括存储器和处理器,所述存储器存储有计算机程序,处理器调用所述计算机程序执行以下步骤:
采用带标签的源域行人图像对预先建立的主模型进行预训练;
将不带标签的目标域行人图像输入预训练后的主模型中进行特征提取;
利用所述提取出的特征对所述目标域行人图像进行密度聚类;根据该密度聚类的结果对所述目标域行人图像打上伪标签;
采用原型相似性度量方法对所述打上伪标签的目标域行人图像进行可信度评估,得到高可信度样本和低可信度样本;
将所述高可信度样本和低可信度样本载入预先建立的非对称联合教学网络中进行迭代训练,所述非对称联合教学网络包括相互连接的所述主模型和协作模型,采用训练后的非对称联合教学网络的主模型进行行人重识别。
进一步地,所述主模型采用在ImageNet上预训练过的ResNet50作为主干网络,用步幅为1的卷积层将ResNet50最后一个block中步幅为2的卷积层替换。
进一步地,所述原型相似性度量方法包括以下步骤:
将所述打上伪标签的目标域行人图像记为样本,对于每一种类型的样本,提取出这些样本的中心点,作为该种类型样本的原型,所述原型的计算公式如下:
Figure BDA0002925656240000031
式中,
Figure BDA0002925656240000041
表示在目标域行人图像集/>
Figure BDA0002925656240000042
中打上伪标签
Figure BDA0002925656240000043
的样本合集,/>
Figure BDA0002925656240000044
为目标域行人图像集中的样本;
采用欧式距离计算标注上同一伪标签的样本合集与它们原型之间的距离,该距离的计算表达式为:
Figure BDA0002925656240000045
式中,
Figure BDA0002925656240000046
为打上了伪标签/>
Figure BDA0002925656240000047
样本的原型,/>
Figure BDA0002925656240000048
为原型相似性;
当样本的所述原型相似性大于预设的相似阈值时,为高可信度样本,当样本的所述原型相似性小于预设的相似阈值时,为低可信度样本。
进一步地,所述非对称联合教学网络中的迭代训练过程具体为:
所述主模型的训练包括从所述低可信度样本中选取部分样本构造低可信度三元组,通过所述协作模型计算所述低可信度三元组的损失,选取低可信度三元组中损失较小的部分锚点以及所述高可信度样本的部分样本对所述主模型进行一轮微调;
所述协作模型的训练包括从所述高可信度样本中选取部分样本构造高可信度三元组,通过所述主模型计算所述高可信度三元组的损失,选取高可信度三元组中损失较小的部分锚点以及所述低可信度样本的部分样本对所述协作模型进行一轮微调;
对所述主模型和协作模型进行迭代训练,直至达到预设的训练条件。
与现有技术相比,本发明具有以下优点:
本发明提供了一种基于非对称联合教学网络的跨域行人重识别方法,该方法通过原型相似性度量方法对伪标签的可信度进行度量,能够有效找出伪标签噪声,避免在后续的训练过程中伪标签噪声带来的干扰,显著提高行人重识别模型的性能。该方法通过使用非对称联合教学网络,使得训练过程中既能够减小伪标签噪声带来的影响,又能使模型尽可能的接收多样性的样本,不断提高辨别困难样本的能力,有效地提升了行人重识别模型的准确率。
附图说明
图1为本发明实施例中基于非对称联合教学网络的跨域行人重识别方法的流程图;
图2为本发明实施例中的网络模型结构图;
图3为本发明实施例中非对称联合教学网络的迭代训练图。
具体实施方式
下面结合附图和具体实施例对本发明进行详细说明。本实施例以本发明技术方案为前提进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述的实施例。
实施例1
如图1所示,本实施例提供一种基于非对称联合教学网络的跨域行人重识别方法,该方法主要包括下列步骤:S1:源域数据集模型预训练;S2:目标域数据集特征提取并赋伪标签;S3:伪标签可信度度量;S4:非对称联合教学网络迭代训练。
具体描述如下:
S1:源域数据集模型预训练
使用在ImageNet上预训练过的ResNet50模型作为主干网络,用步幅为1的卷积层将ResNet50最后一个block中步幅为2的卷积层替换,保持图像分辨率,以监督的方式对CNN模型进行预训练得到模型M。
将带标签的源域行人图像输入到ResNet50模型提取图像的特征,采用三元组损失和交叉熵损失作为损失函数,训练模型至收敛。
三元组损失函数公式如下:
Figure BDA0002925656240000051
其中Nb表示一次训练所取的样本数,xa表示锚点样本特征,xp表示和锚点最不相似的正样本特征,xn表示和锚点最相似的负样本特征。
交叉熵损失函数公式如下:
Figure BDA0002925656240000052
其中pi表示输入图像经过模型分类后的概率值。
S2:目标域数据集特征提取并赋伪标签
将不带标签的目标域行人图像输入到预训练的模型M中提取池化层输出特征,然后用基于密度的聚类算法DBSCAN对提取的特征进行聚类,DBSCAN聚类算法将簇定义为密度相连的点的最大集合,能够把具有足够高密度的区域划分为簇,本发明中给每个包含两个以上样本的图像簇分配一个伪标签,然后丢弃单个图像。
S3:伪标签可信度度量
采用原型相似性度量方法对伪标签的可信度进行度量,根据设置的阈值τ将伪标签样本分成高可信度样本和低可信度样本。原型相似性度量方法是对每种类型的样本提取他们的中心点作为原型,原型计算公式如下:
Figure BDA0002925656240000061
其中
Figure BDA0002925656240000062
表示在目标域数据集xT中打上伪标签/>
Figure BDA0002925656240000063
的样本合集,/>
Figure BDA0002925656240000064
为目标域中的样本。采用欧式距离计算标注上同一伪标签的样本合集与它们原型之间的距离,公式如下:
Figure BDA0002925656240000065
其中
Figure BDA0002925656240000066
表示打上了伪标签/>
Figure BDA0002925656240000067
样本的原型,当原型相似性/>
Figure BDA0002925656240000068
大于阈值τ时,表示样本xt比较接近原型,具有较高的可信度,为高可信度样本,相反,当原型相似性/>
Figure BDA0002925656240000069
小于阈值τ时,表示当样本xt离原型比较远,具有较低的可信度,为低可信度样本。
S4:非对称联合教学网络迭代训练
非对称联合教学网络由主模型M和协作模型C组成,如图3所示,将高可信度样本和低可信度样本分别输入到非对称联合教学网络中,图中虚线代表没有反向传播,只用来提取图像的特征,实线代表训练过程。
主模型M的训练:从低可信度样本中挑选出64个样本构造相应的三元组,通过协作模型C计算这些样本的三元组损失,选择具有较小损失的前20%三元组中的锚点作为纯净样本,将这些挑选出来的锚点和另外从高可信度样本中选出来的64个样本作为一个训练的mini-batch来对主模型M进行微调,这样,在尽可能避免伪标签噪声干扰的情况下,使主模型M尽可能的接收多样性的样本,不断提高辨别困难样本的能力。
协作模型C的训练:从高可信度样本挑选出64个样本构造相应的三元组,然后用主模型M计算这些样本的三元组损失,从中选出具有较小损失的前20%的三元组锚点用于优化协作模型C。在这一部分中,主模型M主要是为了保证用于训练协作模型C的样本尽可能的纯净,进而增强协作模型C挑选纯净样本时的辨别力。
令主模型M和协作C进行迭代训练,相互促进,以训练好的主模型M作为最终模型。
综上所述,本发明提供了一种基于非对称联合教学网络的跨域行人重识别方法,该方法通过原型相似性度量方法对伪标签的可信度进行度量,能够有效找出伪标签噪声,避免在后续的训练过程中伪标签噪声带来的干扰,显著提高行人重识别模型的性能。该方法通过使用非对称联合教学网络,使得训练过程中既能够减小伪标签噪声带来的影响,又能使模型尽可能的接收多样性的样本,不断提高辨别困难样本的能力,有效地提升了行人重识别模型的准确率。
本实施例还提供一种基于非对称联合教学网络的跨域行人重识别装置,包括存储器和处理器,所述存储器存储有计算机程序,处理器调用所述计算机程序执行如上所述的基于非对称联合教学网络的跨域行人重识别方法。
以上详细描述了本发明的较佳具体实施例。应当理解,本领域的普通技术人员无需创造性劳动就可以根据本发明的构思做出诸多修改和变化。因此,凡本技术领域中技术人员依本发明的构思在现有技术的基础上通过逻辑分析、推理或者有限的实验可以得到的技术方案,皆应在由权利要求书所确定的保护范围内。

Claims (8)

1.一种基于非对称联合教学网络的跨域行人重识别方法,其特征在于,包括以下步骤:
采用带标签的源域行人图像对预先建立的主模型进行预训练;
将不带标签的目标域行人图像载入预训练后的主模型中进行特征提取;
利用所述提取出的特征对所述目标域行人图像进行密度聚类;根据该密度聚类的结果对所述目标域行人图像打上伪标签;
采用原型相似性度量方法对所述打上伪标签的目标域行人图像进行可信度评估,得到高可信度样本和低可信度样本;
将所述高可信度样本和低可信度样本载入预先建立的非对称联合教学网络中进行迭代训练,所述非对称联合教学网络包括相互连接的所述主模型和协作模型,采用训练后的非对称联合教学网络的主模型进行行人重识别;
所述原型相似性度量方法包括以下步骤:
将所述打上伪标签的目标域行人图像记为样本,对于每一种类型的样本,提取出这些样本的中心点,作为该种类型样本的原型,所述原型的计算公式如下:
Figure FDA0003980844640000011
式中,
Figure FDA0003980844640000012
表示在目标域行人图像集/>
Figure FDA0003980844640000013
中打上伪标签/>
Figure FDA0003980844640000014
的样本合集,/>
Figure FDA0003980844640000015
为目标域行人图像集中的样本;
采用欧式距离计算标注上同一伪标签的样本合集与它们原型之间的距离,该距离的计算表达式为:
Figure FDA0003980844640000016
式中,
Figure FDA0003980844640000017
为打上了伪标签/>
Figure FDA0003980844640000018
样本的原型,/>
Figure FDA0003980844640000019
为原型相似性;
所述高可信度样本和低可信度样本的获取具体为:
当样本的所述原型相似性大于预设的相似阈值时,为高可信度样本,当样本的所述原型相似性小于预设的相似阈值时,为低可信度样本。
2.根据权利要求1所述的一种基于非对称联合教学网络的跨域行人重识别方法,其特征在于,所述主模型采用在ImageNet上预训练过的ResNet50作为主干网络,用步幅为1的卷积层将ResNet50最后一个block中步幅为2的卷积层替换。
3.根据权利要求1所述的一种基于非对称联合教学网络的跨域行人重识别方法,其特征在于,采用三元组损失和交叉熵损失作为损失函数,对所述主模型进行预训练。
4.根据权利要求1所述的一种基于非对称联合教学网络的跨域行人重识别方法,其特征在于,所述非对称联合教学网络中的迭代训练过程具体为:
所述主模型的训练包括从所述低可信度样本中选取部分样本构造低可信度三元组,通过所述协作模型计算所述低可信度三元组的损失,选取低可信度三元组中损失较小的部分锚点以及所述高可信度样本的部分样本对所述主模型进行一轮微调;
所述协作模型的训练包括从所述高可信度样本中选取部分样本构造高可信度三元组,通过所述主模型计算所述高可信度三元组的损失,选取高可信度三元组中损失较小的部分锚点以及所述低可信度样本的部分样本对所述协作模型进行一轮微调;
对所述主模型和协作模型进行迭代训练,直至达到预设的训练条件。
5.一种基于非对称联合教学网络的跨域行人重识别装置,其特征在于,包括存储器和处理器,所述存储器存储有计算机程序,处理器调用所述计算机程序执行如权利要求1-4任一所述的步骤。
6.根据权利要求5所述的一种基于非对称联合教学网络的跨域行人重识别装置,其特征在于,所述主模型采用在ImageNet上预训练过的ResNet50作为主干网络,用步幅为1的卷积层将ResNet50最后一个block中步幅为2的卷积层替换。
7.根据权利要求5所述的一种基于非对称联合教学网络的跨域行人重识别装置,其特征在于,所述原型相似性度量方法包括以下步骤:
将所述打上伪标签的目标域行人图像记为样本,对于每一种类型的样本,提取出这些样本的中心点,作为该种类型样本的原型,所述原型的计算公式如下:
Figure FDA0003980844640000021
式中,
Figure FDA0003980844640000022
表示在目标域行人图像集/>
Figure FDA0003980844640000023
中打上伪标签/>
Figure FDA0003980844640000024
的样本合集,/>
Figure FDA0003980844640000025
为目标域行人图像集中的样本;
采用欧式距离计算标注上同一伪标签的样本合集与它们原型之间的距离,该距离的计算表达式为:
Figure FDA0003980844640000031
式中,
Figure FDA0003980844640000032
为打上了伪标签/>
Figure FDA0003980844640000033
样本的原型,/>
Figure FDA0003980844640000034
为原型相似性;
当样本的所述原型相似性大于预设的相似阈值时,为高可信度样本,当样本的所述原型相似性小于预设的相似阈值时,为低可信度样本。
8.根据权利要求5所述的一种基于非对称联合教学网络的跨域行人重识别装置,其特征在于,所述非对称联合教学网络中的迭代训练过程具体为:
所述主模型的训练包括从所述低可信度样本中选取部分样本构造低可信度三元组,通过所述协作模型计算所述低可信度三元组的损失,选取低可信度三元组中损失较小的部分锚点以及所述高可信度样本的部分样本对所述主模型进行一轮微调;
所述协作模型的训练包括从所述高可信度样本中选取部分样本构造高可信度三元组,通过所述主模型计算所述高可信度三元组的损失,选取高可信度三元组中损失较小的部分锚点以及所述低可信度样本的部分样本对所述协作模型进行一轮微调;
对所述主模型和协作模型进行迭代训练,直至达到预设的训练条件。
CN202110131889.7A 2021-01-30 2021-01-30 基于非对称联合教学网络的跨域行人重识别方法和装置 Active CN112766218B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110131889.7A CN112766218B (zh) 2021-01-30 2021-01-30 基于非对称联合教学网络的跨域行人重识别方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110131889.7A CN112766218B (zh) 2021-01-30 2021-01-30 基于非对称联合教学网络的跨域行人重识别方法和装置

Publications (2)

Publication Number Publication Date
CN112766218A CN112766218A (zh) 2021-05-07
CN112766218B true CN112766218B (zh) 2023-05-30

Family

ID=75704126

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110131889.7A Active CN112766218B (zh) 2021-01-30 2021-01-30 基于非对称联合教学网络的跨域行人重识别方法和装置

Country Status (1)

Country Link
CN (1) CN112766218B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113657176A (zh) * 2021-07-22 2021-11-16 西南财经大学 一种基于主动对比学习的行人重识别实现方法
CN114998925B (zh) * 2022-04-22 2024-04-02 四川大学 一种面向孪生噪声标签的鲁棒跨模态行人重识别方法
CN114596592B (zh) * 2022-04-30 2022-08-02 苏州浪潮智能科技有限公司 一种行人重识别方法、系统、设备及计算机可读存储介质
CN114821651B (zh) * 2022-04-30 2023-11-10 苏州浪潮智能科技有限公司 一种行人重识别方法、系统、设备及计算机可读存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102298579A (zh) * 2010-06-22 2011-12-28 北京大学 面向科技文献的论文、作者和期刊排序模型及排序方法
CN107250727A (zh) * 2014-09-15 2017-10-13 牛津大学创新有限公司 确定移动设备在地理区域中的位置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110942025A (zh) * 2019-11-26 2020-03-31 河海大学 一种基于聚类的无监督跨域行人重识别方法
CN111027442A (zh) * 2019-12-03 2020-04-17 腾讯科技(深圳)有限公司 用于行人重识别的模型训练方法、识别方法、装置及介质
CN112069929B (zh) * 2020-08-20 2024-01-05 之江实验室 一种无监督行人重识别方法、装置、电子设备及存储介质
CN112036322B (zh) * 2020-09-01 2022-12-06 清华大学 多任务网络跨域行人重识别模型构建方法、系统及装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102298579A (zh) * 2010-06-22 2011-12-28 北京大学 面向科技文献的论文、作者和期刊排序模型及排序方法
CN107250727A (zh) * 2014-09-15 2017-10-13 牛津大学创新有限公司 确定移动设备在地理区域中的位置

Also Published As

Publication number Publication date
CN112766218A (zh) 2021-05-07

Similar Documents

Publication Publication Date Title
CN112766218B (zh) 基于非对称联合教学网络的跨域行人重识别方法和装置
CN111612763B (zh) 手机屏幕缺陷检测方法、装置及系统、计算机设备及介质
CN109086756B (zh) 一种基于深度神经网络的文本检测分析方法、装置及设备
CN107133569B (zh) 基于泛化多标记学习的监控视频多粒度标注方法
CN106096561B (zh) 基于图像块深度学习特征的红外行人检测方法
CN113436169B (zh) 一种基于半监督语义分割的工业设备表面裂纹检测方法及系统
CN109919977B (zh) 一种基于时间特征的视频运动人物跟踪与身份识别方法
CN109190446A (zh) 基于三元组聚焦损失函数的行人再识别方法
JP2019521443A (ja) 適応型追加学習を用いた細胞のアノテーション法及びアノテーションシステム
CN111178120B (zh) 一种基于作物识别级联技术的害虫图像检测方法
CN111709311A (zh) 一种基于多尺度卷积特征融合的行人重识别方法
CN108960142B (zh) 基于全局特征损失函数的行人再识别方法
CN112949408B (zh) 一种过鱼通道目标鱼类实时识别方法和系统
US10423817B2 (en) Latent fingerprint ridge flow map improvement
CN112990282B (zh) 一种细粒度小样本图像的分类方法及装置
CN111008576A (zh) 行人检测及其模型训练、更新方法、设备及可读存储介质
CN115527269B (zh) 一种人体姿态图像智能识别方法及系统
CN111539456B (zh) 一种目标识别方法及设备
CN113065409A (zh) 一种基于摄像分头布差异对齐约束的无监督行人重识别方法
CN111444816A (zh) 一种基于Faster RCNN的多尺度密集行人检测方法
CN112836675B (zh) 一种基于聚类生成伪标签的无监督行人重识别方法及系统
CN113780145A (zh) 精子形态检测方法、装置、计算机设备和存储介质
CN111950452A (zh) 一种人脸识别方法
CN112115996A (zh) 图像数据的处理方法、装置、设备及存储介质
CN109829887B (zh) 一种基于深度神经网络的图像质量评估方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant