CN110991321B - 一种基于标签更正与加权特征融合的视频行人再识别方法 - Google Patents

一种基于标签更正与加权特征融合的视频行人再识别方法 Download PDF

Info

Publication number
CN110991321B
CN110991321B CN201911200336.1A CN201911200336A CN110991321B CN 110991321 B CN110991321 B CN 110991321B CN 201911200336 A CN201911200336 A CN 201911200336A CN 110991321 B CN110991321 B CN 110991321B
Authority
CN
China
Prior art keywords
video
pedestrian
video frame
features
similarity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911200336.1A
Other languages
English (en)
Other versions
CN110991321A (zh
Inventor
冷彪
姜铭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beihang University
Original Assignee
Beihang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beihang University filed Critical Beihang University
Priority to CN201911200336.1A priority Critical patent/CN110991321B/zh
Publication of CN110991321A publication Critical patent/CN110991321A/zh
Application granted granted Critical
Publication of CN110991321B publication Critical patent/CN110991321B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/30Scenes; Scene-specific elements in albums, collections or shared content, e.g. social network photos or video
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/49Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于标签更正与加权特征融合的视频行人再识别方法,属于计算机视觉及生物特征识别领域。其方法为:在训练过程中根据神经网络对训练样本所属类别的预测值对样本标签进行更正,同时利用特征与同一视频序列其它特征的相似度计算特征权重,加权融合后的视频特征可以减小视频序列中噪声的干扰,具有更强的鲁棒性。

Description

一种基于标签更正与加权特征融合的视频行人再识别方法
技术领域
本发明涉及一种基于标签更正与加权特征融合的视频行人再识别方法,属于计算机视觉及生物特征识别领域。
背景技术
视频行人再识别是指根据事先获取的某个待查询的行人视频片段,在多个其他的摄像头拍摄到的监控视频中,查找出同一个目标行人出现的时间和地点。该技术在安防和智能监控等领域都有重要应用价值和前景。
近几年,深度学习技术在计算机视觉领域取得了巨大进步,卷积神经网络在图像分类等领域已经取得超过人类表现的性能。目前视频行人再识别普遍采用基于深度学习的方法,基本思路是先提取视频段中每帧图像的特征,然后使用循环神经网络、直接平均或注意力机制等方式把图像特征融合,得到视频特征,计算不同视频特征之间的距离判断是否是同一个行人。
视频行人再识别问题目前的主要难点在于背景变化、无关物体的遮挡、视频帧的质量参差不齐、行人检测和跟踪算法不完善导致的噪声等。由图像特征融合得到的视频特征容易受到上述因素的干扰,使得最终的视频特征不具有良好的判别性,从而匹配到错误的行人。
目前无相关文献报导。
发明内容
针对现有技术的缺点,本申请要解决的技术问题为:由于行人检测和跟踪算法不完善导致提取的行人视频片段中存在错误标签的问题,以及现有用于视频行人再识别的卷积神经网络方法无法区分判别性视频帧且容易受到噪声干扰的问题。
本发明技术要解决的问题是:克服现有基于卷积神经网络的视频行人再识别技术的不足,提供一种基于标签更正与加权特征融合的视频行人再识别方法。在训练卷积神经网络过程中,利用网络对每张图像的预测,逐步更正训练数据中存在的错误标签。利用同一个视频片段中的每个图像特征之间的相似度,计算每帧图像的权重,通过加权融合的方式得到视频特征,减小视频中各种噪声对融合后的视频特征的影响,提高视频特征的判别性和视频行人再识别的准确率。
本发明采用的技术方案为一种基于标签更正与加权特征融合的视频行人再识别方法,在训练过程中对训练数据中可能存在的错误标签进行更正,在推理阶段,计算每帧图像的权重,通过加权的方式融合得到视频特征。可以有效提高视频行人再识别模型的鲁棒性和判别性。
本发明是一种基于标签更正与加权特征融合的行人再识别方法,该方法包括有下列步骤:
步骤一:数据预处理
数据预处理是对摄像头拍摄的原始视频进行预处理,便于后续步骤的进行。监控视频中可能同时出现多个行人,因此首先需要使用已有的行人检测和跟踪算法把不同的行人分开,同一个行人连续的视频帧放入一个文件夹中,此处得到的行人视频帧是指只包含一个行人的视频帧,通过对原始视频帧裁剪得到,同一个行人连续的视频帧组合起来形成一个行人视频序列。后续的数据预处理操作还包括把行人图像缩放到统一的大小,目前常用的大小有384*192和256*128,减均值,除以标准差等。通过对原始视频的预处理,最后得到了多个文件夹,每个文件夹包含一个行人视频序列。对所有的文件夹进行进一步划分,选择其中一部分作为训练集,另一部分作为候选行人库。
步骤二:卷积神经网络提取视频帧特征
本发明使用的主干网络是目前计算机视觉领域常用的残差网络ResNet50,原始的ResNet50在最后一个block中使用的步长是2,为了提高提取的图像特征的分辨率,本发明中把ResNet50最后一个block的步长设置为1,可以减少信息的丢失。输入图像的大小为256*128*3,经过ResNet50的处理后,得到每个行人视频帧的图像特征,输出的行人视频帧特征的大小为2048*1*1。
步骤三:加权特征融合
步骤二中得到的特征是每个视频帧的图像特征,本步骤把属于同一个视频序列的所有视频帧的图像特征通过加权的方式融合得到视频特征,作为最终的特征表示。由于行人检测和跟踪算法的不完美,在数据预处理阶段得到的一个行人的视频序列可能存在噪声,如裁剪处理的图像中不包含任何行人或跟踪算法错误跟踪到目标行人周围的另一个行人等,得到的视频序列中的某些视频帧可能包含另外的行人或者全是背景。因此在加权融合过程中,具有判别性的正确视频帧对应的权重应该接近1,而存在噪声的视频帧对应的权重应该接近0,降低这些噪声对最终视频特征的影响。一般第一帧对应的行人是正确的,在后续跟踪过程中可能出现错误,并且一个行人视频序列中正确的视频帧占多数,噪声视频帧占的比例较小。对于一个视频序列的所有视频帧S={I1,I2,I3,…,In},定义F={f1,f2,f3,…,fn}是步骤二中提取的对应视频帧特征。则fi对应的权重αi计算公式如下:
αi=λsi1+(1-λ)savg
其中,si1是fi与f1的相似度,savg是fi与fj(j=1,2,3,…,n;j≠i)的相似度的平均值,λ是权重系数。
若当前阶段是训练阶段,则转到步骤四,否则转到步骤五。
步骤四:计算损失函数与标签更正
据步骤三得到的视频特征直接计算Triplet Loss,把视频特征输入到全连接层中分类,用分类概率计算SoftMax Loss。步骤二中的卷积神经网络使用Triplet Loss和SoftMax Loss联合监督训练。当步骤二中的卷积神经网络训练到一定程度后,用当期的网络预测训练集中所有视频帧的分类概率。若训练集中一共有n个类别的行人,输入视频帧I的预测概率为pi(i=1,2,3,…,n),视频帧I的原始标签为l(l∈{1,2,3,…,n}),则经过标签更正操作赋予视频帧I一个新的标签lnew,具体规则如公式所示:
Figure BDA0002295685220000031
其中,t1和t2是两个阈值,可以根据实际应用数据分布进行设置。当步骤二中使用的卷积神经网络预测某个视频帧与对应的类别不符,且预测属于其他类的概率pj大于阈值t2时,认为该视频帧的原始标签存在错误,本步骤中予以更正。
步骤五:在候选行人库中匹配目标行人
使用步骤三得到的视频特征与候选行人库中预先提取的视频特征计算相似度,选择相似度最大的k个行人视频片段作为最终匹配的结果,k是设定的参数,可根据实际使用情况中候选行人库的规模进行调整。若候选行人库规模大,如超过一百万候选行人视频序列,则选择较大的k(如k=1000)。候选行人库中所有视频的处理与上述步骤相同。
其中,步骤三和步骤五中所述的“相似度”,是指两个特征向量的余弦相似度(Cosine Similarity),即在d维空间中两个向量之间的夹角的余弦值。对于给定d维空间中的两个向量p=(p1,p2…,pd),q=(q1,q2…,qd),p和q的相似度计算如下:
Figure BDA0002295685220000032
式中符号说明:p,q为给定的两个向量;pi,qi(i=1,2,…,d)分别表示p,q在d维空间中的坐标;S(p,q)表示p到q的相似度;S(q,p)表示q到p的相似度;||p||和||q||分别是向量p和向量q的模长。
本发明与现有技术相比的优点及功效在于:
(1)本发明考虑了数据预处理阶段行人检测和跟踪算法的不完善引入的噪声问题,在训练阶段利用神经网络对训练数据类别的预测,对错误标签进行更正,减少噪声对模型训练的影响。同时加权特征融合阶段根据特征与同一视频序列其它特征的相似度计算特征权重,可以进一步减小噪声对最终视频特征的影响,提高了视频行人重识别的鲁棒性。
(2)本发明克服了现有使用注意力机制生成特征权重中存在的权重定义模糊,可解释性较差的缺点。利用特征与同一视频序列其它特征的相似度计算特征权重,方法简单直观,计算量小,且具有较强的可解释性。加权融合后的视频特征可以减小视频序列中噪声的干扰,具有更强的鲁棒性。
附图说明
图1为本发明所述方法流程图;
图2为本发明中所使用的网络结构图。
具体实施方式
为了更好地理解本发明,先对一些概念进行一下解释说明。
1.卷积神经网络:一类包含卷积操作的前馈神经网络,是深度学习的代表算法之一。
2.ResNet:深度残差网络,采用残差连接的方式,解决了增加网络深度带来的梯度退化问题,使网络更容易优化,可以有效提高网络的泛化性能。
3.视频帧:指视频中的一张静止图像,提取到的特征成为视频帧特征或图像特征。多个连续的视频帧组成一段视频或视频序列,对应的特征成为视频特征。
整个实现过程如下:
本发明是一种基于标签更正与加权特征融合的行人再识别方法,该方法包括有下列步骤:
步骤一:数据预处理
数据预处理是对摄像头拍摄的视频进行预处理,便于后续步骤的进行。监控视频中可能同时出现多个行人,因此首先需要使用已有的行人检测和跟踪算法把不同行人的视频分开,同一个行人连续的视频帧放入一个文件夹中。后续的数据预处理操作还包括把行人图像缩放到统一的大小,目前常用的大小有384*192和256*128,减均值,除以标准差等。
步骤二:卷积神经网络提取视频帧特征
本发明使用的主干网络是目前计算机视觉领域常用的残差网络ResNet50,原始的ResNet50在最后一个block中使用的步长是2,为了提高提取的图像特征的分辨率,本发明中把ResNet50最后一个block的步长设置为1,可以减少信息的丢失。输入图像的大小为256*128*3,经过ResNet50的处理后,输出的视频帧特征的大小为2048*1*1。
步骤三:加权特征融合
步骤二中得到的特征是每个视频帧的图像特征,本步骤把属于同一个视频序列的所有视频帧的图像特征通过加权的方式融合得到视频特征,作为最终的特征表示。在加权融合过程中,具有判别性的正确视频帧对应的权重应该较大,而存在噪声的视频帧对应的权重应该较小,降低这些噪声对最终视频特征的影响。本发明中假设视频帧中第一帧对应的行人是正确的,在后续跟踪过程中可能出现错误,并且假设一个视频序列中正确的视频帧占多数,噪声视频帧占的比例较小。对于一个视频序列的所有视频帧S={I1,I2,I3,…,In},定义F={f1,f2,f3,…,fn}是步骤二中提取的对应视频帧特征。则fi对应的权重αi计算公式如下:
αi=λsi1+(1-λ)savg
其中,si1是fi与f1的相似度,savg是fi与fj(j=1,2,3,…,n;j≠i)的相似度的平均值,λ是权重系数。
若当前阶段是训练阶段,则转到步骤四,否则转到步骤五。
步骤四:计算损失函数与标签更正
根据步骤三得到的视频特征直接计算Triplet Loss,把视频特征输入到全连接层中分类,用分类概率计算SoftMax Loss。整个网络使用Triplet Loss和SoftMax Loss联合监督训练。当网络训练到一定程度后,用当期的网络预测训练集中所有视频帧的分类概率。若训练集中一共有n个类别的行人,输入视频帧I的预测概率为pi(i=1,2,3,…,n),视频帧I的原始标签为l(l∈{1,2,3,…,n}),则经过标签更正操作赋予视频帧I一个新的标签lnew,具体规则如公式所示:
Figure BDA0002295685220000051
其中,t1和t2是两个阈值,可以根据实际应用数据分布进行设置。当网络预测某个视频帧与对应的类别不符,且预测属于其他类的概率pj大于阈值t2时,认为该视频帧的原始标签存在错误,本步骤中予以更正。
步骤五:在候选行人库中匹配目标行人
使用步骤三得到的视频特征与候选行人库中预先提取的视频特征计算相似度,选择相似度最大的k个行人视频片段作为最终匹配的结果,k是预先设定的参数,可根据实际使用情况进行调整。候选行人库中所有视频的处理与上述步骤相同。
本发明未详细描述的部分属于本领域公知技术。

Claims (2)

1.一种基于标签更正与加权特征融合的视频行人再识别方法,其特征在于,包括以下步骤:
步骤一:对摄像头拍摄的原始视频进行预处理,首先利用行人检测和跟踪算法把不同的行人分开,同一个行人连续的视频帧放入一个文件夹中,此处得到的行人视频帧是指只包含一个行人的视频帧,通过对原始视频帧裁剪得到,同一个行人连续的视频帧组合起来形成一个行人视频序列,再把每个行人视频帧缩放到统一大小;通过对原始视频的预处理,最后得到多个文件夹,每个文件夹包含一个行人视频序列;对所有的文件夹进行划分,选择其中一部分作为训练集,另一部分作为候选行人库;
步骤二:使用卷积神经网络提取视频帧特征,卷积神经网络采用ResNet50,把ResNet50最后一个block的步长设置为1,减少信息的丢失;
步骤三:通过加权的方式得到最终的视频特征,步骤二中得到的视频帧特征是每个视频帧的图像特征,把属于同一个视频序列的所有视频帧的图像特征通过加权的方式融合得到视频特征,作为最终的特征表示;在加权融合过程中,具有判别性的正确视频帧对应的权重应该接近1,而存在噪声的视频帧对应的权重应该接近0,降低这些噪声对最终视频特征的影响,对于一个视频序列的所有视频帧S={I1,I2,I3,…,In},定义F={f1,f2,f3,…,fn}是步骤二中提取的对应视频帧特征。则fi对应的权重αi计算公式如下:
αi=λsi1+(1-λ)savg
其中,si1是fi与f1的相似度,savg是fi与fj的相似度的平均值,j=1,2,3,…,n;j≠i,λ是权重系数,用于衡量两个相似度之间的重要程度;
若当前阶段是训练阶段,则转到步骤四,否则转到步骤五;
步骤四:计算损失函数并且对训练集中的数据进行标签更正,根据步骤三得到的视频特征直接计算Triplet Loss,把视频特征输入到全连接层中分类,用分类概率计算SoftMaxLoss,卷积神经网络使用Triplet Loss和SoftMax Loss联合监督训练,当卷积神经网络训练到一定程度后,用当前的卷积神经网络预测训练集中所有视频帧的分类概率,若训练集中一共有n个类别的行人,输入视频帧I的预测概率为pi,i=1,2,3,…,n,视频帧I的原始标签为l,l∈{1,2,3,…,n},则经过标签更正操作赋予视频帧I一个新的标签lnew,具体规则如公式所示:
Figure FDA0002295685210000021
其中,t1和t2是两个阈值,根据实际应用数据分布进行设置,当使用的卷积神经网络预测某个视频帧与对应的类别不符,且预测属于其他类的概率pj大于阈值t2时,认为该视频帧的原始标签存在错误,予以更正;
步骤五:在候选行人库中匹配目标行人,使用得到的视频特征与候选行人库中预先提取的视频特征计算相似度,选择相似度最大的k个行人视频片段作为最终匹配的结果。
2.根据权利要求1所述的基于标签更正与加权特征融合的视频行人再识别方法,其特征在于:所述步骤三和步骤五中的相似度,是指两个特征向量的余弦相似度,即在d维空间中两个向量之间的夹角的余弦值,对于给定d维空间中的两个向量p=(p1,p2…,pd),q=(q1,q2…,qd),p和q的相似度计算如下:
Figure FDA0002295685210000022
其中,p,q为给定的两个向量;pi,qi(i=1,2,…,d)分别表示p,q在d维空间中的坐标;S(p,q)表示p到q的相似度;S(q,p)表示q到p的相似度;||p||和||q||分别是向量p和向量q的模长。
CN201911200336.1A 2019-11-29 2019-11-29 一种基于标签更正与加权特征融合的视频行人再识别方法 Active CN110991321B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911200336.1A CN110991321B (zh) 2019-11-29 2019-11-29 一种基于标签更正与加权特征融合的视频行人再识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911200336.1A CN110991321B (zh) 2019-11-29 2019-11-29 一种基于标签更正与加权特征融合的视频行人再识别方法

Publications (2)

Publication Number Publication Date
CN110991321A CN110991321A (zh) 2020-04-10
CN110991321B true CN110991321B (zh) 2023-05-02

Family

ID=70088397

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911200336.1A Active CN110991321B (zh) 2019-11-29 2019-11-29 一种基于标签更正与加权特征融合的视频行人再识别方法

Country Status (1)

Country Link
CN (1) CN110991321B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111553205B (zh) * 2020-04-12 2022-11-15 西安电子科技大学 无车牌信息车辆重识别方法、系统、介质、视频监控系统
CN111914730B (zh) * 2020-07-28 2023-11-24 上海工程技术大学 一种基于联合时空采样的无监督视频序列行人再识别方法
CN113269068B (zh) * 2021-05-18 2022-04-22 上海大学 一种基于多模态特征调节与嵌入表示增强的手势识别方法
CN114067294B (zh) * 2022-01-18 2022-05-13 之江实验室 一种基于文本特征融合的细粒度车辆识别系统及方法
CN114694173B (zh) * 2022-03-01 2023-07-25 电子科技大学 一种基于细粒度特征融合的跨域无监督行人重识别方法
CN117152692B (zh) * 2023-10-30 2024-02-23 中国市政工程西南设计研究总院有限公司 基于视频监控的交通目标检测方法及系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017190656A1 (zh) * 2016-05-05 2017-11-09 华为技术有限公司 行人再识别方法和装置
CN108416382A (zh) * 2018-03-01 2018-08-17 南开大学 一种基于迭代采样和一对多标签修正的Web图像训练卷积神经网络方法
CN109101913A (zh) * 2018-08-01 2018-12-28 北京飞搜科技有限公司 行人重识别方法和装置
CN109711281A (zh) * 2018-12-10 2019-05-03 复旦大学 一种基于深度学习的行人重识别与特征识别融合方法
CN110210535A (zh) * 2019-05-21 2019-09-06 北京市商汤科技开发有限公司 神经网络训练方法及装置以及图像处理方法及装置
CN110457984A (zh) * 2019-05-21 2019-11-15 电子科技大学 监控场景下基于ResNet-50的行人属性识别方法
CN110457985A (zh) * 2019-06-05 2019-11-15 深圳大学 基于视频序列的行人再识别方法、装置及计算机设备

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11669724B2 (en) * 2018-05-17 2023-06-06 Raytheon Company Machine learning using informed pseudolabels

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017190656A1 (zh) * 2016-05-05 2017-11-09 华为技术有限公司 行人再识别方法和装置
CN108416382A (zh) * 2018-03-01 2018-08-17 南开大学 一种基于迭代采样和一对多标签修正的Web图像训练卷积神经网络方法
CN109101913A (zh) * 2018-08-01 2018-12-28 北京飞搜科技有限公司 行人重识别方法和装置
CN109711281A (zh) * 2018-12-10 2019-05-03 复旦大学 一种基于深度学习的行人重识别与特征识别融合方法
CN110210535A (zh) * 2019-05-21 2019-09-06 北京市商汤科技开发有限公司 神经网络训练方法及装置以及图像处理方法及装置
CN110457984A (zh) * 2019-05-21 2019-11-15 电子科技大学 监控场景下基于ResNet-50的行人属性识别方法
CN110457985A (zh) * 2019-06-05 2019-11-15 深圳大学 基于视频序列的行人再识别方法、装置及计算机设备

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Guanglu Song等.Region-based Quality Estimation Network for Large-scale Person Re-identification.《arXiv》.2017,第1-8页. *
橙同学的学习笔记.论文阅读笔记(十)【CVPR2016】:Recurrent Convolutional Network for Video- based Person Re-Identification.《https://www.cnblogs.com/orangecyh/p/12083875.html 》.2019,第1-11页. *

Also Published As

Publication number Publication date
CN110991321A (zh) 2020-04-10

Similar Documents

Publication Publication Date Title
CN110991321B (zh) 一种基于标签更正与加权特征融合的视频行人再识别方法
CN113378632B (zh) 一种基于伪标签优化的无监督域适应行人重识别方法
CN107633226B (zh) 一种人体动作跟踪特征处理方法
CN111368683B (zh) 基于模约束CenterFace的人脸图像特征提取方法及人脸识别方法
CN110120064B (zh) 一种基于互强化与多注意机制学习的深度相关目标跟踪算法
CN110717411A (zh) 一种基于深层特征融合的行人重识别方法
CN106778501B (zh) 基于压缩跟踪与ihdr增量学习的视频人脸在线识别方法
CN111160407A (zh) 一种深度学习目标检测方法及系统
CN110334622B (zh) 基于自适应特征金字塔的行人检索方法
CN113920472B (zh) 一种基于注意力机制的无监督目标重识别方法及系统
CN112801019B (zh) 基于合成数据消除无监督车辆再识别偏差的方法及系统
CN111241987B (zh) 基于代价敏感的三支决策的多目标模型视觉追踪方法
CN112329784A (zh) 一种基于时空感知及多峰响应的相关滤波跟踪方法
CN112507778A (zh) 一种基于线特征的改进词袋模型的回环检测方法
CN114693607A (zh) 基于多域块特征标志点配准的篡改视频检测方法及系统
CN109359530B (zh) 一种智能视频监控方法及装置
CN113449676B (zh) 一种基于双路互促进解纠缠学习的行人重识别方法
CN113627481A (zh) 一种面向智慧园林的多模型组合的无人机垃圾分类方法
CN117152504A (zh) 一种空间相关性引导的原型蒸馏小样本分类方法
CN109165587B (zh) 智能图像信息抽取方法
CN116664867A (zh) 一种基于多证据融合选取训练样本的特征提取方法及装置
CN116580333A (zh) 基于YOLOv5和改进StrongSORT的粮库车辆追踪方法
CN112487927B (zh) 一种基于物体关联注意力的室内场景识别实现方法及系统
CN115082854A (zh) 一种面向安防监控视频的行人搜索方法
Yang Continuous epoch distance integration for unsupervised person Re-identification

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant