CN111611880A - 一种基于神经网络无监督对比学习的高效行人重识别方法 - Google Patents
一种基于神经网络无监督对比学习的高效行人重识别方法 Download PDFInfo
- Publication number
- CN111611880A CN111611880A CN202010364742.8A CN202010364742A CN111611880A CN 111611880 A CN111611880 A CN 111611880A CN 202010364742 A CN202010364742 A CN 202010364742A CN 111611880 A CN111611880 A CN 111611880A
- Authority
- CN
- China
- Prior art keywords
- training
- unsupervised
- learning
- pedestrian
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于神经网络无监督对比学习的高效行人重识别方法。本发明步骤:步骤1:准备行人重识别模型训练的数据集;步骤2:选择具有较强特征提取能力的卷积神经网络作为无监督对比学习模型的主干网络,无监督对比学习模型中的对比学习以特征向量为出发点,即对无监督对比学习模型提取的特征向量进行约束,按照损失函数的方式,利用优化器和反向传播的原理实现对无监督对比学习模型的网络参数的修正;步骤3:将训练图片的特征向量存入缓存区;步骤4:通过量化指标进行量化评估。本发明使用有标数据和无标数据同时训练,即保障模型较高的准确度,实现模型易训练的特点,又能有较好的模型扩展性,对新环境的新样本有更好的扩展性。
Description
技术领域
本发明涉及智能安防业务涵盖社会安保、人员监控、反恐维稳等领域,提供一种基于神经网络无监督对比学习的高效行人重识别方法。一种场景适应能力强、跨摄像头多角度、识别精度高的普适性行人识别方法。
背景技术
行人重识别技术是视频追踪的一个重要实验技术,通过对多个摄像头中行人图片的提取进行同一人在不同姿态、不同角度、不同环境下的识别和匹配技术。该技术能够根据行人的穿着、体态、发型等信息认知行人,同时该技术可以作为人脸识别技术的重要补充,可以对无法获取清晰拍摄人脸的行人进行跨摄像头连续跟踪,增强数据的时空连续性。行人重识别技术利用计算机视觉技术判断图像或者视频序列中是否存在特定行人。广泛被认为是一个图像检索的子问题。给定一个监控行人图像,检索跨设备下的该行人图像。
目前行人检测的算法如DPM(Deformable part model可形变部件模型)和FastRCNN已经可以实现在一个图像中圈出行人的目标,即自动标注,不需要人工去标注了,那么行人重识别任务就是要找到最可能匹配待识别目标的候选。目前的行人再识别研究是基于数据集的,就是通过架设几个摄像头,采集行人图像,然后人工标注或自动标注。这些图像一部分用于训练,一部分用于识别。目前受到相机拍摄角度、图片成像质量、环境光线变化、人体姿态变化、目标遮挡和训练数据集不够等问题,目前的识别率还达不到可以应用的要求。
传统的行人重识别方法是采用有监督的训练方法,即使用人工收集和标记的行人训练集进行训练,因为训练集的图片是有限的场景下的有限数量的采集,并不能完全符合实际生活中的所有场景,训练的行人重识别模型对与训练集相同情境下的图片具有良好的检测和识别精度,但是对其他情景下的图片却没有很好的识别精度。所以传统有监督学习下训练的模型缺少对实际生活场景的普适性。
如果需要在新的场景下让行人重识别模型得到较好的结果,需要对新场景进行行人图片的采集、人工标注以及模型重新训练,这其中代价最高就是行人图片的标注,这个需要耗费大量的人力物力,也是目前有监督学习下行人重识别技术没法落地应用的主要障碍。本发明是采用无监督学习方法进行图片特征表述学习的技术,不需要大量的人工数据标注,只需要提供新环境下足够的行人抓取照片即可。
传统的使用监督学习的方式需要进行足够的新环境鲁棒性和稳定性测试,需要大量的人力物力去测试系统和模型的有效运行性,在模型和系统实际上线运行之前,需要足够的时间去测试,检验模型在新场景下是否具有足够的稳定性和准确性。采用有监督方法训练的模型存在着不稳定性,在实际使用中存在极大的风险,这也是制约目前行人重识别技术落地的重要因素。
行人重识别的技术受环境因素影响巨大,系统稳定运行的风险也很大,特别是有监督训练的模型普适性不强,容易被攻击造成系统无法正常运行。在现实中,攻击者可以换装衣服和帽子、光照强度变化、遮挡身体部分等实现对行人重识别系统的攻击。
发明内容
本发明的目的是针对现有技术的不足,提出一种基于神经网络无监督对比学习的高效行人重识别方法。一种使用对比学习方式的普适性行人重识别方法。本发明可以快速高效的实现行人在不同场景下的识别和检测。
本发明根据无监督学习领域的对比学习方法,利用无监督不需要标注数据的特点,使用神经网络进行对比学习,利用更多的无标签的行人图片,去提高神经网络的特征表达和特征提取能力。
本发明一种基于神经网络无监督对比学习的高效行人重识别方法,其解决技术问题所采用的技术方案包括以下步骤:
步骤1:准备行人重识别模型训练的数据集;
步骤2:选择具有较强特征提取能力的卷积神经网络作为无监督对比学习模型的主干网络,卷积神经网络包括ResNet;无监督对比学习模型中的对比学习以特征向量为出发点,即对无监督对比学习模型提取的特征向量进行约束,按照损失函数的方式,利用优化器和反向传播的原理实现对无监督对比学习模型的网络参数的修正;
步骤3:将训练图片的特征向量存入缓存区
为了方便模型训练过程中特征向量的对比学习,正在训练中的无监督对比学习模型将当前训练图片提取的特征向量存入缓存区,便于下一个训练周期进行特征向量对比;
当需要进行特征向量对比时,随机选取指定数量的特征向量与当前训练周期中提取的特征向量进行对比学习;
步骤4:通过量化指标进行量化评估。
进一步的,步骤1具体实现如下:
1-1.在应用该行人重识别方法的地区,实地收集行人图片,无需标注图片,形成真实训练集;
1-2.从网络中选取公开的带标签的行人重识别的科研训练集;
1-3.将收集到的行人重识别图片作为两个训练集,用来同一个模型的训练学习;利用训练服务器GPU大容量的特点,将两个训练集同时放入无监督对比学习模型进行训练,实现训练数据的并行处理。
进一步的,步骤2所述的对比学习具体实现如下:
2-1.使用带标签的科研训练集对卷积无监督对比学习模型进行监督学习,使用交叉熵函数公式(1)训练,当损失函数不再下降时,无监督对比学习模型达到收敛状态;
2-2.然后将带标签的科研训练集和无标签的真实训练集输入步骤2-1训练后的无监督对比学习模型;具体的科研训练集和真实训练集按照1:1的比例,分批次送入无监督对比学习模型中进行训练,损失函数采用公式(2)所表达的相似度函数,指导无监督对比学习模型提取带标签训练图片和无标签训练图片的特征向量,通过计算特征向量的欧式距离判断达到相似度一致,打破不同环境中潜在的不一致性;特征向量的欧式距离计算如公式(4)所示;
2-3.对带标签训练图片和无标签训练图片进行对比学习,让训练图片的每一个特征向量具有自己独特的特征,使用的是无参数的softmaxs损失函数,如公式(3)所示,将每一个特征向量作为无参数softmax的输入;
计算公式(1)-(3)所示无参数损失函数如下所示:
其中和分别表示交叉熵损失函数、相似度损失函数和无参数softmax损失函数;其中ns表示带标签的科研训练集中第s个批次的样本数量,ys,i表示带标签的科研训练集中第s个批次中第i个样本的标签;xs,i表示带标签的科研训练集中第s个批次中第i个样本;p()表示条件概率函数;q表示无标签的真实训练集中一个样本的特征向量,k-和k+表示无监督对比学习模型在上一个训练周期已经保存的训练好的特征向量;k-表示与q无关的特征向量,k+表示跟q相关的特征向量,τ表示时间常量,用来控制特征向量的大小;ki表示上一个训练周期已经保存的训练好的特征向量中的第i个特征向量。
进一步的,为了保证特征提取在不同时期的连续性,在使用缓存区中提取到的特征向量时,需要对特征向量进行当前监督对比学习模型的参数的中和,中和的程度与缓存区中特征向量更新的时间间隔有关;更新时间间隔越长,中和参数越大,则缓存区中的特征向量需要更多当前训练模型的中和指导,中和函数如下所示:
v=(1-λt)vm+λtv0 (5)
其中,v表示中和后的特征向量,vm表示监督对比学习模型当前训练周期提取的特征向量,v0表示缓存区中的特征向量,λt表示更新常量,该常数跟更新时间有关。
进一步的,所述的λt用更新常量公式表示,表示方式如下:
进一步的,在使用缓存区时,以一个批次处理的时间为间隔,对缓存区中的所有特征向量进行统一更新;即对每一批处理训练的特征向量进行同一批次的更新,保障每一个训练图片都有最新的特征向量,方便整个模型的对比学习过程。
本发明的有益效果是:
使用有标数据和无标数据同时训练,即保障模型较高的准确度,实现模型易训练的特点,又能有较好的模型扩展性,对新环境的新样本有更好的扩展性。无监督学习同时对样本个体特异性和环境一致性进行约束学习,确保了行人重识别技术在新环境下的稳定性和准确性,同时无监督学习的方式可以节约大量的数据标注工作。利用动态的特征向量的缓存和融合利用,可以实现对样本特征的准确描述,实现更好的模型训练效果。
具体实施方式
本发明根据无监督学习领域的对比学习方法,利用无监督不需要标注数据的特点,使用神经网络进行对比学习,利用更多的无标签的行人图片,去提高神经网络的特征表达和特征提取能力。
本发明一种基于神经网络无监督对比学习的高效行人重识别方法,其解决技术问题所采用的技术方案包括以下步骤:
步骤1:准备行人重识别模型训练的数据集。
尽管采集的数据集不是用在监督学习方法训练模型,但是训练图片依旧需要尽可能贴近实际生活中的图片,确保行人重识别较高的精度和可用性,具体步骤如下:
1-1.在应用该行人重识别方法的地区,实地收集行人图片,无需标注图片,形成真实训练集;
1-2.从网络中选取公开的带标签的行人重识别的科研训练集;
1-3.将收集到的行人重识别图片作为两个训练集,用来同一个模型的训练学习。利用训练服务器GPU大容量的特点,将两个训练集同时放入无监督对比学习模型进行训练,实现训练数据的并行处理。
步骤2:选择具有较强特征提取能力的卷积神经网络作为无监督对比学习模型的主干网络,卷积神经网络包括ResNet。无监督对比学习模型中的对比学习以特征向量为出发点,即对无监督对比学习模型提取的特征向量进行约束,按照损失函数的方式,利用优化器和反向传播的原理实现对无监督对比学习模型的网络参数的修正。
对比学习的实现过程如下(创新点);
2-1.使用带标签的科研训练集对卷积无监督对比学习模型进行监督学习,使用交叉熵函数公式(1)训练,当损失函数不再下降时,无监督对比学习模型达到收敛状态;
2-2.然后将带标签的科研训练集和无标签的真实训练集输入步骤2-1训练后的无监督对比学习模型;具体的科研训练集和真实训练集按照1:1的比例,分批次送入无监督对比学习模型中进行训练,损失函数采用公式(2)所表达的相似度函数,指导无监督对比学习模型提取带标签训练图片和无标签训练图片的特征向量,通过计算特征向量的欧式距离判断达到相似度一致,打破不同环境中潜在的不一致性;特征向量的欧式距离计算如公式(4)所示。
所述的每个批次中样本的数量相同;
2-3.对带标签训练图片和无标签训练图片进行对比学习,让训练图片的每一个特征向量具有自己独特的特征,使用的是无参数的softmaxs损失函数,如公式(3)所示,将每一个特征向量作为无参数softmax的输入。
计算公式(1)-(3)所示无参数损失函数如下所示:
其中和分别表示交叉熵损失函数、相似度损失函数和无参数softmax损失函数。其中ns表示带标签的科研训练集中第s个批次的样本数量,ys,i表示带标签的科研训练集中第s个批次中第i个样本的标签;xs,i表示带标签的科研训练集中第s个批次中第i个样本。p()表示条件概率函数;q表示无标签的真实训练集中一个样本的特征向量,k-和k+表示无监督对比学习模型在上一个训练周期已经保存的训练好的特征向量;k-表示与q无关的特征向量,k+表示跟q相关的特征向量,τ表示时间常量,用来控制特征向量的大小。ki表示上一个训练周期已经保存的训练好的特征向量中的第i个特征向量;
步骤3:将训练图片的特征向量存入缓存区
为了方便模型训练过程中特征向量的对比学习,正在训练中的无监督对比学习模型将当前训练图片提取的特征向量存入缓存区,便于下一个训练周期进行特征向量对比;
当需要进行特征向量对比时,随机选取指定数量的特征向量与当前训练周期中提取的特征向量进行对比学习。
同时为了保证特征提取在不同时期的连续性,在使用缓存区中提取到的特征向量时,需要对特征向量进行当前监督对比学习模型的参数的中和,中和的程度与缓存区中特征向量更新的时间间隔有关。更新时间间隔越长,中和参数越大,则缓存区中的特征向量需要更多当前训练模型的中和指导,中和函数如下所示:
v=(1-λt)vm+λtv0 (5)
其中,v表示中和后的特征向量,vm表示监督对比学习模型当前训练周期提取的特征向量,v0表示缓存区中的特征向量,λt表示更新常量,该常数跟更新时间有关。
λt表示更新常量公式,求解方式如下:
在使用缓存区时,以一个批次处理的时间为间隔,对缓存区中的所有特征向量进行统一更新;即对每一批处理训练的特征向量进行同一批次的更新,保障每一个训练图片都有最新的特征向量,方便整个模型的对比学习过程。
步骤4:进行量化评估
量化评估的量化指标为
(1)CMC:累积匹配曲线,Rank n代表前n个有正确的匹配结果,Rank 1即代表第一次就找对了,Rank 5则指前五次中有正确结果;
(2)mAP:平均AP值,是对多个验证集个体求平均AP值。AP准确率,计算公式为预测样本中实际正样本数/所有被预测成正样本数。量化评估结果如下,我们在Market1501公开科研数据集进行测试,下面是我们的模型和现在最好的模型的对比。
rank-1 | rank-5 | mAP | |
ECN | 75.1 | - | 43.0 |
MAR | 67.7 | 81.9 | 40.0 |
SI | 74.0 | 87.4 | 47.9 |
Our | 78.6 | 85.4 | 48.3 |
使用有标数据和无标数据同时训练,即保障模型较高的准确度,实现模型易训练的特点,又能有较好的模型扩展性,对新环境的新样本有更好的扩展性。无监督学习同时对样本个体特异性和环境一致性进行约束学习,确保了行人重识别技术在新环境下的稳定性和准确性,同时无监督学习的方式可以节约大量的数据标注工作。利用动态的特征向量的缓存和融合利用,可以实现对样本特征的准确描述,实现更好的模型训练效果。
Claims (6)
1.一种基于神经网络无监督对比学习的高效行人重识别方法,其特征在于包括以下步骤:
步骤1:准备行人重识别模型训练的数据集;
步骤2:选择具有较强特征提取能力的卷积神经网络作为无监督对比学习模型的主干网络,卷积神经网络包括ResNet;无监督对比学习模型中的对比学习以特征向量为出发点,即对无监督对比学习模型提取的特征向量进行约束,按照损失函数的方式,利用优化器和反向传播的原理实现对无监督对比学习模型的网络参数的修正;
步骤3:将训练图片的特征向量存入缓存区
为了方便模型训练过程中特征向量的对比学习,正在训练中的无监督对比学习模型将当前训练图片提取的特征向量存入缓存区,便于下一个训练周期进行特征向量对比;
当需要进行特征向量对比时,随机选取指定数量的特征向量与当前训练周期中提取的特征向量进行对比学习;
步骤4:通过量化指标进行量化评估。
2.根据权利要求1所述的一种基于神经网络无监督对比学习的高效行人重识别方法,其特征在于步骤1具体实现如下:
1-1.在应用该行人重识别方法的地区,实地收集行人图片,无需标注图片,形成真实训练集;
1-2.从网络中选取公开的带标签的行人重识别的科研训练集;
1-3.将收集到的行人重识别图片作为两个训练集,用来同一个模型的训练学习;利用训练服务器GPU大容量的特点,将两个训练集同时放入无监督对比学习模型进行训练,实现训练数据的并行处理。
3.根据权利要求1或2所述的一种基于神经网络无监督对比学习的高效行人重识别方法,其特征在于步骤2所述的对比学习具体实现如下:
2-1.使用带标签的科研训练集对卷积无监督对比学习模型进行监督学习,使用交叉熵函数公式(1)训练,当损失函数不再下降时,无监督对比学习模型达到收敛状态;
2-2.然后将带标签的科研训练集和无标签的真实训练集输入步骤2-1训练后的无监督对比学习模型;具体的科研训练集和真实训练集按照1:1的比例,分批次送入无监督对比学习模型中进行训练,损失函数采用公式(2)所表达的相似度函数,指导无监督对比学习模型提取带标签训练图片和无标签训练图片的特征向量,通过计算特征向量的欧式距离判断达到相似度一致,打破不同环境中潜在的不一致性;特征向量的欧式距离计算如公式(4)所示;
2-3.对带标签训练图片和无标签训练图片进行对比学习,让训练图片的每一个特征向量具有自己独特的特征,使用的是无参数的softmaxs损失函数,如公式(3)所示,将每一个特征向量作为无参数softmax的输入;
计算公式(1)-(3)所示无参数损失函数如下所示:
4.根据权利要求3所述的一种基于神经网络无监督对比学习的高效行人重识别方法,其特征在于为了保证特征提取在不同时期的连续性,在使用缓存区中提取到的特征向量时,需要对特征向量进行当前监督对比学习模型的参数的中和,中和的程度与缓存区中特征向量更新的时间间隔有关;更新时间间隔越长,中和参数越大,则缓存区中的特征向量需要更多当前训练模型的中和指导,中和函数如下所示:
v=(1-λt)vm+λtv0 (5)
其中,v表示中和后的特征向量,vm表示监督对比学习模型当前训练周期提取的特征向量,v0表示缓存区中的特征向量,λt表示更新常量,该常数跟更新时间有关。
6.根据权利要求4或5所述的一种基于神经网络无监督对比学习的高效行人重识别方法,其特征在于在使用缓存区时,以一个批次处理的时间为间隔,对缓存区中的所有特征向量进行统一更新;即对每一批处理训练的特征向量进行同一批次的更新,保障每一个训练图片都有最新的特征向量,方便整个模型的对比学习过程。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010364742.8A CN111611880B (zh) | 2020-04-30 | 2020-04-30 | 一种基于神经网络无监督对比学习的高效行人重识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010364742.8A CN111611880B (zh) | 2020-04-30 | 2020-04-30 | 一种基于神经网络无监督对比学习的高效行人重识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111611880A true CN111611880A (zh) | 2020-09-01 |
CN111611880B CN111611880B (zh) | 2023-06-20 |
Family
ID=72201267
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010364742.8A Active CN111611880B (zh) | 2020-04-30 | 2020-04-30 | 一种基于神经网络无监督对比学习的高效行人重识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111611880B (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112381116A (zh) * | 2020-10-21 | 2021-02-19 | 福州大学 | 基于对比学习的自监督图像分类方法 |
CN112418264A (zh) * | 2020-10-14 | 2021-02-26 | 上海眼控科技股份有限公司 | 检测模型的训练方法、装置、目标检测方法、设备和介质 |
CN112668493A (zh) * | 2020-12-30 | 2021-04-16 | 上海交通大学 | 基于gan和深度学习的换装行人再识别定位跟踪系统 |
CN113111814A (zh) * | 2021-04-20 | 2021-07-13 | 合肥学院 | 基于正则化约束的半监督行人重识别方法及装置 |
CN113191183A (zh) * | 2021-03-02 | 2021-07-30 | 清华大学 | 人员重新识别中的无监督域纠正伪标签方法及装置 |
WO2022052656A1 (zh) * | 2020-09-11 | 2022-03-17 | 苏州浪潮智能科技有限公司 | 一种物体识别模型的训练方法、系统及装置 |
CN114241514A (zh) * | 2021-11-15 | 2022-03-25 | 北京爱笔科技有限公司 | 一种用于提取人体骨骼特征的模型训练方法及装置 |
WO2023160312A1 (zh) * | 2022-02-23 | 2023-08-31 | 厦门市美亚柏科信息股份有限公司 | 基于自监督学习的行人重识别方法、装置、设备及存储介质 |
CN114241514B (zh) * | 2021-11-15 | 2024-05-28 | 北京爱笔科技有限公司 | 一种用于提取人体骨骼特征的模型训练方法及装置 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109948561A (zh) * | 2019-03-25 | 2019-06-28 | 广东石油化工学院 | 基于迁移网络的无监督图像视频行人重识别的方法及系统 |
GB201908574D0 (en) * | 2019-06-14 | 2019-07-31 | Vision Semantics Ltd | Optimised machine learning |
CN110263697A (zh) * | 2019-06-17 | 2019-09-20 | 哈尔滨工业大学(深圳) | 基于无监督学习的行人重识别方法、装置及介质 |
US20190295282A1 (en) * | 2018-03-21 | 2019-09-26 | Nvidia Corporation | Stereo depth estimation using deep neural networks |
CN110414368A (zh) * | 2019-07-04 | 2019-11-05 | 华中科技大学 | 一种基于知识蒸馏的无监督行人重识别方法 |
CN110414462A (zh) * | 2019-08-02 | 2019-11-05 | 中科人工智能创新技术研究院(青岛)有限公司 | 一种无监督的跨域行人重识别方法及系统 |
CN110502964A (zh) * | 2019-05-21 | 2019-11-26 | 杭州电子科技大学 | 一种无监督数据驱动的行人重识别方法 |
US20190392818A1 (en) * | 2019-07-31 | 2019-12-26 | Lg Electronics Inc. | Unsupervised learning system and method for performing weighting for improvement in speech recognition performance and recording medium for performing the method |
-
2020
- 2020-04-30 CN CN202010364742.8A patent/CN111611880B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190295282A1 (en) * | 2018-03-21 | 2019-09-26 | Nvidia Corporation | Stereo depth estimation using deep neural networks |
CN109948561A (zh) * | 2019-03-25 | 2019-06-28 | 广东石油化工学院 | 基于迁移网络的无监督图像视频行人重识别的方法及系统 |
CN110502964A (zh) * | 2019-05-21 | 2019-11-26 | 杭州电子科技大学 | 一种无监督数据驱动的行人重识别方法 |
GB201908574D0 (en) * | 2019-06-14 | 2019-07-31 | Vision Semantics Ltd | Optimised machine learning |
CN110263697A (zh) * | 2019-06-17 | 2019-09-20 | 哈尔滨工业大学(深圳) | 基于无监督学习的行人重识别方法、装置及介质 |
CN110414368A (zh) * | 2019-07-04 | 2019-11-05 | 华中科技大学 | 一种基于知识蒸馏的无监督行人重识别方法 |
US20190392818A1 (en) * | 2019-07-31 | 2019-12-26 | Lg Electronics Inc. | Unsupervised learning system and method for performing weighting for improvement in speech recognition performance and recording medium for performing the method |
CN110414462A (zh) * | 2019-08-02 | 2019-11-05 | 中科人工智能创新技术研究院(青岛)有限公司 | 一种无监督的跨域行人重识别方法及系统 |
Non-Patent Citations (3)
Title |
---|
"基于深度卷积网络的图像分类技术研究" * |
"视觉显著性检测综述" * |
邹勰鑫: "基于卷积神经网络的行人重识别研究" * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022052656A1 (zh) * | 2020-09-11 | 2022-03-17 | 苏州浪潮智能科技有限公司 | 一种物体识别模型的训练方法、系统及装置 |
CN112418264A (zh) * | 2020-10-14 | 2021-02-26 | 上海眼控科技股份有限公司 | 检测模型的训练方法、装置、目标检测方法、设备和介质 |
CN112381116A (zh) * | 2020-10-21 | 2021-02-19 | 福州大学 | 基于对比学习的自监督图像分类方法 |
CN112668493A (zh) * | 2020-12-30 | 2021-04-16 | 上海交通大学 | 基于gan和深度学习的换装行人再识别定位跟踪系统 |
CN112668493B (zh) * | 2020-12-30 | 2022-11-11 | 上海交通大学 | 基于gan和深度学习的换装行人再识别定位跟踪系统 |
CN113191183A (zh) * | 2021-03-02 | 2021-07-30 | 清华大学 | 人员重新识别中的无监督域纠正伪标签方法及装置 |
CN113111814A (zh) * | 2021-04-20 | 2021-07-13 | 合肥学院 | 基于正则化约束的半监督行人重识别方法及装置 |
CN114241514A (zh) * | 2021-11-15 | 2022-03-25 | 北京爱笔科技有限公司 | 一种用于提取人体骨骼特征的模型训练方法及装置 |
CN114241514B (zh) * | 2021-11-15 | 2024-05-28 | 北京爱笔科技有限公司 | 一种用于提取人体骨骼特征的模型训练方法及装置 |
WO2023160312A1 (zh) * | 2022-02-23 | 2023-08-31 | 厦门市美亚柏科信息股份有限公司 | 基于自监督学习的行人重识别方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111611880B (zh) | 2023-06-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111611880B (zh) | 一种基于神经网络无监督对比学习的高效行人重识别方法 | |
CN111126360B (zh) | 基于无监督联合多损失模型的跨域行人重识别方法 | |
CN111709311B (zh) | 一种基于多尺度卷积特征融合的行人重识别方法 | |
CN111783576B (zh) | 基于改进型YOLOv3网络和特征融合的行人重识别方法 | |
Liu et al. | Semi-supervised coupled dictionary learning for person re-identification | |
CN105701467B (zh) | 一种基于人体形态特征的多人异常行为识别方法 | |
US8855363B2 (en) | Efficient method for tracking people | |
Obinata et al. | Temporal extension module for skeleton-based action recognition | |
CN110210335B (zh) | 一种行人重识别学习模型的训练方法、系统和装置 | |
CN110598543B (zh) | 基于属性挖掘和推理的模型训练方法及行人再识别方法 | |
CN111582126B (zh) | 基于多尺度行人轮廓分割融合的行人重识别方法 | |
CN109255289B (zh) | 一种基于统一式生成模型的跨衰老人脸识别方法 | |
CN109299707A (zh) | 一种基于模糊深度聚类的无监督行人再识别方法 | |
Ahamed et al. | HOG-CNN based real time face recognition | |
CN113283362B (zh) | 一种跨模态的行人重识别方法 | |
CN111950372A (zh) | 一种基于图卷积网络的无监督行人重识别方法 | |
CN110858276A (zh) | 一种识别模型与验证模型相结合的行人重识别方法 | |
Shi et al. | Instance enhancing loss: Deep identity-sensitive feature embedding for person search | |
CN112541421A (zh) | 一种开放空间的行人换装重识别方法 | |
Wei et al. | Novel green-fruit detection algorithm based on D2D framework | |
CN112633222B (zh) | 基于对抗网络的步态识别方法、装置、设备及介质 | |
CN109492702B (zh) | 基于排序度量函数的行人重识别方法、系统、装置 | |
CN112052722A (zh) | 行人身份再识别方法及存储介质 | |
CN111738062A (zh) | 一种基于嵌入式平台的自动再识别方法及系统 | |
Luo et al. | Robust visual tracking via transfer learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |