CN111914730B - 一种基于联合时空采样的无监督视频序列行人再识别方法 - Google Patents

一种基于联合时空采样的无监督视频序列行人再识别方法 Download PDF

Info

Publication number
CN111914730B
CN111914730B CN202010737980.9A CN202010737980A CN111914730B CN 111914730 B CN111914730 B CN 111914730B CN 202010737980 A CN202010737980 A CN 202010737980A CN 111914730 B CN111914730 B CN 111914730B
Authority
CN
China
Prior art keywords
under
camera
small segment
small
track
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010737980.9A
Other languages
English (en)
Other versions
CN111914730A (zh
Inventor
袁秀欢
韩华
唐佳敏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai University of Engineering Science
Original Assignee
Shanghai University of Engineering Science
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai University of Engineering Science filed Critical Shanghai University of Engineering Science
Priority to CN202010737980.9A priority Critical patent/CN111914730B/zh
Publication of CN111914730A publication Critical patent/CN111914730A/zh
Application granted granted Critical
Publication of CN111914730B publication Critical patent/CN111914730B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/49Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于联合时空采样的无监督视频序列行人再识别方法,包括:获取训练数据集并进行联合时空采样;进行单摄像头下小片段轨迹特征学习;进行单摄像头下行人小片段轨迹排序;计算单摄像头下小片段轨迹的关联损失;进行跨摄像头下小片段轨迹特征学习;进行跨摄像头下行人小片段轨迹排序;计算跨摄像头下小片段轨迹的关联损失;构造全局关联损失函数;判断是否满足迭代结束条件,若是,则执行步骤10,否则,返回步骤2;结束迭代,完成行人再识别。与现有技术相比,本发明具有识别准确度高、适用于无标签数据集的学习、稳定性高、可靠性和实用性高等优点。

Description

一种基于联合时空采样的无监督视频序列行人再识别方法
技术领域
本发明涉及视频序列的行人再识别技术领域,尤其是涉及一种基于联合时空采样的无监督视频序列行人再识别方法。
背景技术
行人再识别的目的是匹配不同摄像头下的行人,尽管大多数的再识别方法是基于静态的图片,但由于视频中的行人小片段轨迹具有丰富的时空信息也越来越得到关注。视频序列中的小片段轨迹是指单个行人图片的组合序列,包含了行人在不同视野、遮挡、背景模糊和行人姿态变化的各种信息,可以自然地作为行人再识别的相关数据源,更具有研究意义。而当前的行人再识别方法多是基于有监督学习,在实际的跨摄像头网络下不仅需要很大的成本标记数据,而且不能保证每对摄像头都有足够的指定行人的出现。针对此现象,无监督的视频行人再识别在实际应用中更有实际性,从而提高再识别模型的可靠性。
现有的处理小片段轨迹的方法多是采用关联排序的方法,例如中国专利CN111079600A中公开了一种多摄像头的行人识别方法及识别系统,该系统就使用了关联排序的方法,该方法在许多实验中显示出较好的效果,但是加强对关联学习的理论解释仍是一项非常重要的任务。在很多实验中,单摄像头下的行人小片段轨迹关联性可以达到很好的效果,但是针对跨摄像头的小片段轨迹关联会产生许多关联错误,且样本的复杂多样性使跨摄像头下的关联计算成本变高,计算时间加长。多摄像头下的关联排序方法内容主要包括:第一是单摄像头下的特征学习,与目标样本特征比较排序,计算目标样本特征与搜索的样本特征之间的关联损失;第二是跨摄像头下,联合单摄像头下学习的目标样本特征作为跨摄像头下的目标,与配对摄像头下的样本特征比较排序,计算样本特征间的关联损失。
因此,小片段轨迹间的关联方法在视频行人再识别中具有重要意义,尽管目前国内外的研究已经取得了很优秀的研究成果,但是随着监控摄像网络的发展扩大,拍摄条件的恶化,以及安防需求的提高,目前已有关联排序方法在视频行人再识别的准确度和计算成本上不能满足实际应用的需求。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种识别准确度高、适用于无标签数据集的学习、稳定性高、可靠性和实用性高的基于联合时空采样的无监督视频序列行人再识别方法。
本发明的目的可以通过以下技术方案来实现:
一种基于联合时空采样的无监督视频序列行人再识别方法,该方法为内嵌在计算机内的程序,包括:
步骤1:获取训练数据集并进行联合时空采样;
步骤2:进行单摄像头下小片段轨迹特征学习;
步骤3:进行单摄像头下行人小片段轨迹排序;
步骤4:计算单摄像头下小片段轨迹的关联损失;
步骤5:进行跨摄像头下小片段轨迹特征学习;
步骤6:进行跨摄像头下行人小片段轨迹排序;
步骤7:计算跨摄像头下小片段轨迹的关联损失;
步骤8:构造全局关联损失函数;
步骤9:判断是否满足迭代结束条件,若是,则执行步骤10,否则,返回步骤2;
步骤10:结束迭代,完成行人再识别。
优选地,所述的步骤1具体为:
使用既有的行人检测和跟踪模型获取不同摄像头下的行人小片段轨迹;
所述的联合时空采样的采样规则具体为:
在同一个时间窗口下,为每个小片段轨迹设置不同的身份标签;在第i时间采样中,检索某个时间点Si下的所有小片段轨迹并标记;设置采样时间间隔P,即下一采样时间点Si+1为Si+P,其中采样时间间隔P大于行人穿过单个摄像头的时间T,即P>T,最终获得每个摄像头下独立标记的小片段轨迹集合{Si},联合采样前的数据集构成训练数据集。
优选地,所述的步骤2中单摄像头下小片段轨迹特征学习具体为:
在摄像头k下,共有Nk个小片段轨迹,将所有小片段轨迹初始化为图片特征表示的平均值任选其中一帧图片特征fk,p,采用滑动平均的方式更新特征学习:
其中,η为更新率,||l2(·)||2=1,t表示迭代次数。
优选地,所述的步骤3中单摄像头下行人小片段轨迹排序具体为:
使用l2距离计算fk,p与xk,i之间的相似度,并按照相似度排序,首先计算图片特征fk,p与所有小片段轨迹图片特征表示的平均值之间的距离:
{Dp,i|Dp,i=||l2(fk,p)-l2(xk,i)||2,i∈Nk}
然后进行排序,并寻找Rank-1的小片段轨迹xk,t,计算fk,p与xk,t之间的最小距离:
其中,||l2(·)||2=1。
优选地,所述的步骤4中单摄像头下小片段轨迹的关联损失的计算方法为:
其中,Dp,p为图片特征fk,p与其对应的小片段轨迹特征xk,p之间的l2距离;Dp,t表示fk,p与Rank-1的小片段轨迹xk,t之间的l2距离;表示Rank-1的xk,t与在摄像头k下随机采样的M张图片特征距离的平均值;p=t表示Rank-1的xk,t是fk,p对应的小片段轨迹特征;m为一常量;
其中,xp为fk,p对应的小片段轨迹P中的任一帧图像;xn为Rank-1的小片段轨迹N中的任一帧图像;||l2(·)||2=1。
优选地,所述的步骤5中跨摄像头下小片段轨迹特征学习具体为:
将摄像头k下的小片段轨迹图片特征表示的平均值xk,i与摄像头l下的Rank-1的小片段轨迹特征xl,t合并为跨摄像头下的特征αk,i,αk,i具体为:
其中,j=i表示迭代后的摄像头k下的小片段轨迹特征与迭代前的特征相同;||l2(·)||2=1。
优选地,所述的步骤6中跨摄像头下行人小片段轨迹排序具体为:
将摄像头k下的小片段轨迹图片特征表示的平均值xk,i作为搜索目标,寻找摄像头l下最关联的小片段轨迹,对摄像头l下的小片段轨迹排序:
{Dp,i|Dp,i=||l2(fk,p)-l2(xl,i)||2,i∈Nl}
然后确定Rank-1的小片段轨迹xl,t,计算fk,p与摄像头l下xl,t的最小距离:
其中,||l2(·)||2=1。
优选地,所述的步骤7中跨摄像头下小片段轨迹的关联损失的计算方法为:
其中,为跨摄像头下的目标样本,xp是αk,p对应的小片段轨迹P(a)中的任一帧图像;||l2(·)||2=1。
优选地,所述的全局关联损失函数为:
L=L1+λLC
其中,L1为单摄像头下小片段轨迹的关联损失函数;LC为跨摄像头下小片段轨迹的关联损失函数;λ为权衡参数。
优选地,所述的迭代结束条件具体为:判断是否达到预设迭代次数,若是,则完成迭代,否则,继续进行迭代。
与现有技术相比,本发明具有以下优点:
一、识别准确度高:本发明中的行人再识别方法考虑到了视频序列中的行人小片段轨迹包含有效的时空信息并加以利用,学习到更加丰富的特征信息,提高识别的准确度。
二、适用于无标签数据集的学习:本发明中的行人再识别方法考虑到了单摄像头和跨摄像头下行人的出现时间及空间位置不同,对获取的小片段轨迹进行采样并自主标记,减少模型学习的错误,通过对采样标记的数据集学习不变的视觉特征,使模型适应于无标签数据集的学习。
三、稳定性高:本发明中的行人再识别方法引入自适应权重定义的关联损失函数,使模型学习时可以有效区分简单和困难样本,对异常值具有鲁棒性,从而提高模型的准确度和稳定性。
四、可靠性和实用性高:本发明中的行人再识别方法基于无监督的学习方法更加贴近实际的视频监控。
附图说明
图1为本发明中行人再识别方法的流程示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明的一部分实施例,而不是全部实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都应属于本发明保护的范围。
一种基于联合时空采样的无监督视频序列行人再识别方法,其流程如图1所示,该方法考虑到视频序列中行人小片段轨迹具有丰富的时空信息,可以自然用于行人再识别中,又由于跨摄像头下行人小片段轨迹复杂多样,会产生大量的计算成本和关联错误,基于监控视频的三个特点:(1)在单个摄像头下,行人在短时间内不会再次出现,因此单个行人具有多条小片段轨迹多是因为跟踪失败导致较长的轨迹断裂产生;(2)处于不同位置的行人应是不同的人;(3)大多数行人穿过单个摄像头的时间较短,因此在经过一个较长的时间间隔P后,再次出现的行人应该不是同一个人。对获取的样本集合采样并标记,从而减少网络学习时将同一个人的多条小片段轨迹当作不同的人的错误,同时,可以避免当行人外观发生视觉变化时,模型依然能够感知到具有判别力的信息。具体包括以下步骤:
一、获取训练数据集并进行联合时空采样
利用现有的检测和跟踪模型获取不同摄像头下的行人小片段轨迹,考虑到单摄像头下,在某个时间点,多个行人在不同的位置应该具有明显的身份标志,因此在第i时间采样的实例中,检索某个时间点Si下的所有小片段轨迹并标记;考虑到公共场景下,大多数行人穿过单个摄像头的时间为T,设置一个时间间隔P,使P>T,即下一次采样时间Si+1为Si+P,最终获得每个摄像头下独立标记的小片段轨迹集合{Si},并联合采样前的数据集构成最终的训练数据集。
无监督学习时,由于跨摄像机下缺少成对标记的行人标签,当行人穿过每对摄像机,视觉外观发生变化时,模型不能有效的感知到判别信息,因此联合利用公共场景下获取的无标签数据集和联合时空采样的数据集来训练模型,联合时空采样的具体规则如下:
(1)在同一个时间窗口下,为每个小片段轨迹设置不同的身份标签;
(2)空间采样:考虑到单摄像头时,在某个相同的时间点,在不同的位置的多个行人应该具有明显不同的身份,因此在第i时间采样的实例中,检索某个时间点Si下的所有小片段轨迹并标记;
(3)时间采样:考虑到公共场景下,大多数行人穿过单个摄像头的时间为T,设置一个时间间隔P,使P>T,即下一次采样时间Si+1为Si+P,从而减少在单摄像头下,每个行人具有多条小片段轨迹的比例。
二、进行单摄像头下小片段轨迹特征学习
在摄像头k下,共有Nk个小片段轨迹,将所有小片段轨迹初始化为图片特征表示的平均值任选其中一帧图片特征fk,p,采用滑动平均的方式更新特征学习:
其中,η为更新率,本实施例中η取0.5,||l2(·)2=1,t表示小批量集合中的迭代次数,采用滑动平均的方式迭代更新,可以有效减少迭代学习时的计算时间。
三、进行单摄像头下行人小片段轨迹排序,使用l2距离计算fk,p与xk,i之间的相似度,并按照相似度排序。
首先计算图片特征fk,p与所有小片段轨迹图片特征表示的平均值之间的距离:
{Dp,i|Dp,i=||l2(fk,p)-l2(xk,i)||2,i∈Nk}
然后进行排序,寻找Rank-1的小片段轨迹xk,t,计算fk,p与xk,t之间的最小距离:
四、计算单摄像头下小片段轨迹的关联损失
为了规范模型学习,以及模型对样本难易程度的区分,引入自适应权重ω进行约束,仿照三重损失函数定义单个摄像头下小片段轨迹的关联损失函数L1,并且利用随机梯度下降的方法调整深度模型的参数来优化关联损失,提高单摄像头下小片段轨迹的辨别力,促进跨摄像头下的小片段轨迹的关联性。
具体为:引入自适应权重,计算Rank-1小片段轨迹特征xk,t与fk,p对应的小片段轨迹的关联损失L1
其中,Dp,p为图片特征fk,p与其对应的小片段轨迹特征xk,p之间的l2距离;Dp,t表示fk,p与Rank-1的小片段轨迹xk,t之间的l2距离;表示Rank-1的xk,t与在摄像头k下随机采样的M张图片特征距离的平均值;p=t表示Rank-1的xk,t是fk,p对应的小片段轨迹特征;m为一常量,保证不同的小片段轨迹之间的距离更大或是使相同的小片段轨迹之间的距离更小。
其中,xp为fk,p对应的小片段轨迹P中的任一帧图像;xn为Rank-1的小片段轨迹N中的任一帧图像;||l2(·)||2=1。
权重ω会根据随机采样的M张图片与Rank-1的xk,t之间的特征距离变化而变化,即每个样本的权重均匀分布。
自适应权重可以有效区分简单和困难样本,即对困难的样本,权重较大,且在学习过程中,对异常值鲁棒,不会影响到权重,从而提高准确度和鲁棒性。
五、进行跨摄像头下小片段轨迹特征学习
将摄像头k下的小片段轨迹图片特征表示的平均值xk,i与摄像头l下的Rank-1的小片段轨迹特征xl,t合并为跨摄像头下的特征αk,i,αk,i具体为:
其中,j=i表示迭代后的摄像头k下的小片段轨迹特征与迭代前的特征相同。
六、进行跨摄像头下行人小片段轨迹排序
将摄像头k下的小片段轨迹图片特征表示的平均值xk,i作为搜索目标,寻找摄像头l下最关联的小片段轨迹,对摄像头l下的小片段轨迹排序:
{Dp,i|Dp,i=||l2(fk,p)-l2(xl,i)||2,i∈Nl}
然后确定Rank-1的小片段轨迹xl,t,计算fk,p与摄像头l下xl,t的最小距离:
七、计算跨摄像头下小片段轨迹的关联损失
计算方法为:
其中,为跨摄像头下的目标样本,xp是αk,p对应的小片段轨迹P(a)中的任一帧图像。
八、构造全局关联损失函数
引入一个权衡参数λ来联合L1和LC关联损失后并后向传播给网络。
L=L1+λLC
九、判断是否满足迭代结束条件,若是,则执行十,否则,返回二。
本实施例中的迭代条件具体为:判断是否达到预设迭代次数,若是,则完成迭代,否则,继续进行迭代。根据不同大小的数据设置迭代的次数,通常设为104~105次,大的数据集的迭代次数较小,反之较大。当迭代次数达到最大时,结束迭代。
十、结束迭代,完成行人再识别。
通过上述方法得到的视频行人再识别方法,考虑到了视频序列中的行人小片段轨迹包含有效的时空信息并加以利用,学习到更加丰富的特征信息,提高识别的准确度;考虑到单摄像头和跨摄像头下行人的出现时间及空间位置不同,对获取的小片段轨迹进行采样并自主标记,减少模型学习的错误,通过对采样标记的数据集学习不变的视觉特征,使模型适应于无标签数据集的学习;引入自适应权重定义的关联损失函数,使模型学习时可以有效区分简单和困难样本,对异常值具有鲁棒性,从而提高模型的准确度和稳定性;基于无监督的学习方法更加贴近实际的视频监控,更加具有可靠性和实际性。通过上述方法得到的视频行人再识别的关联学习方法可以有效提高无监督条件下的视频行人再识别的效率和准确率,具体可以应用在:
(1)应用于大型公共场所视频监控,可以根据本视频行人再识别的关联学习方法有效的对监控网络中的行人目标身份关联性判别,对监控中的行人进行行为分析、目标跟踪等;
(2)应用于刑侦工作,可以利用本方法代替人力,对目标嫌疑人进行寻找识别、定位,减少破案时间,提高破案效率;
(3)应用于目标检索,可以根据本视频行人再识别方法对海量视频中的目标进行检索。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。

Claims (6)

1.一种基于联合时空采样的无监督视频序列行人再识别方法,该方法为内嵌在计算机内的程序,其特征在于,包括:
步骤1:获取训练数据集并进行联合时空采样;
步骤2:进行单摄像头下小片段轨迹特征学习;
步骤3:进行单摄像头下行人小片段轨迹排序;
步骤4:计算单摄像头下小片段轨迹的关联损失;
步骤5:进行跨摄像头下小片段轨迹特征学习;
步骤6:进行跨摄像头下行人小片段轨迹排序;
步骤7:计算跨摄像头下小片段轨迹的关联损失;
步骤8:构造全局关联损失函数;
步骤9:判断是否满足迭代结束条件,若是,则执行步骤10,否则,返回步骤2;
步骤10:结束迭代,完成行人再识别;
所述的步骤1具体为:
使用既有的行人检测和跟踪模型获取不同摄像头下的行人小片段轨迹;
所述的联合时空采样的采样规则具体为:
在同一个时间窗口下,为每个小片段轨迹设置不同的身份标签;在第i时间采样中,检索某个时间点Si下的所有小片段轨迹并标记;设置采样时间间隔P,即下一采样时间点Si+1为Si+P,其中采样时间间隔P大于行人穿过单个摄像头的时间T,即P>T,最终获得每个摄像头下独立标记的小片段轨迹集合{Si},联合采样前的数据集构成训练数据集;
所述的步骤4中单摄像头下小片段轨迹的关联损失的计算方法为:
其中,Dp,p为图片特征fk,p与其对应的小片段轨迹特征xk,p之间的l2距离;Dp,t表示fk,p与Rank-1的小片段轨迹xk,t之间的l2距离;表示Rank-1的xk,t与在摄像头k下随机采样的M张图片特征距离的平均值;p=t表示Rank-1的xk,t是fk,p对应的小片段轨迹特征;m为一常量;
其中,xp为fk,p对应的小片段轨迹P中的任一帧图像;xn为Rank-1的小片段轨迹N中的任一帧图像;||l2(·)||2=1;
所述的步骤7中跨摄像头下小片段轨迹的关联损失的计算方法为:
其中,为跨摄像头下的目标样本,xp是αk,p对应的小片段轨迹P(a)中的任一帧图像;||l2(·)||2=1;
所述的全局关联损失函数为:
L=L1+λLC
其中,L1为单摄像头下小片段轨迹的关联损失函数;LC为跨摄像头下小片段轨迹的关联损失函数;λ为权衡参数。
2.根据权利要求1所述的一种基于联合时空采样的无监督视频序列行人再识别方法,其特征在于,所述的步骤2中单摄像头下小片段轨迹特征学习具体为:
在摄像头k下,共有Nk个小片段轨迹,将所有小片段轨迹初始化为图片特征表示的平均值任选其中一帧图片特征fk,p,采用滑动平均的方式更新特征学习:
其中,η为更新率,||l2(·)||2=1,t表示迭代次数。
3.根据权利要求2所述的一种基于联合时空采样的无监督视频序列行人再识别方法,其特征在于,所述的步骤3中单摄像头下行人小片段轨迹排序具体为:
使用l2距离计算fk,p与xk,i之间的相似度,并按照相似度排序,首先计算图片特征fk,p与所有小片段轨迹图片特征表示的平均值之间的距离:
{Dp,i|Dp,i=||l2(fk,p)-l2(xk,i)||2,i∈Nk}
然后进行排序,并寻找Rank-1的小片段轨迹xk,t,计算fk,p与xk,t之间的最小距离:
其中,||l2(·)||2=1。
4.根据权利要求1所述的一种基于联合时空采样的无监督视频序列行人再识别方法,其特征在于,所述的步骤5中跨摄像头下小片段轨迹特征学习具体为:
将摄像头k下的小片段轨迹图片特征表示的平均值xk,i与摄像头l下的Rank-1的小片段轨迹特征xl,t合并为跨摄像头下的特征αk,i,αk,i具体为:
其中,j=i表示迭代后的摄像头k下的小片段轨迹特征与迭代前的特征相同;||l2(·)||2=1。
5.根据权利要求1所述的一种基于联合时空采样的无监督视频序列行人再识别方法,其特征在于,所述的步骤6中跨摄像头下行人小片段轨迹排序具体为:
将摄像头k下的小片段轨迹图片特征表示的平均值xk,i作为搜索目标,寻找摄像头l下最关联的小片段轨迹,对摄像头l下的小片段轨迹排序:
{Dp,i|Dp,i=||l2(fk,p)-l2(xl,i)||2,i∈Nl}
然后确定Rank-1的小片段轨迹xl,t,计算fk,p与摄像头l下xl,t的最小距离:
其中,||l2(·)||2=1。
6.根据权利要求1所述的一种基于联合时空采样的无监督视频序列行人再识别方法,其特征在于,所述的迭代结束条件具体为:判断是否达到预设迭代次数,若是,则完成迭代,否则,继续进行迭代。
CN202010737980.9A 2020-07-28 2020-07-28 一种基于联合时空采样的无监督视频序列行人再识别方法 Active CN111914730B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010737980.9A CN111914730B (zh) 2020-07-28 2020-07-28 一种基于联合时空采样的无监督视频序列行人再识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010737980.9A CN111914730B (zh) 2020-07-28 2020-07-28 一种基于联合时空采样的无监督视频序列行人再识别方法

Publications (2)

Publication Number Publication Date
CN111914730A CN111914730A (zh) 2020-11-10
CN111914730B true CN111914730B (zh) 2023-11-24

Family

ID=73286734

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010737980.9A Active CN111914730B (zh) 2020-07-28 2020-07-28 一种基于联合时空采样的无监督视频序列行人再识别方法

Country Status (1)

Country Link
CN (1) CN111914730B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113205545B (zh) * 2021-06-07 2023-07-07 苏州卡创信息科技有限公司 区域环境下的行为识别分析方法、系统
CN113536928B (zh) * 2021-06-15 2024-04-19 清华大学 一种高效率的无监督行人重识别方法和装置
CN113435329B (zh) * 2021-06-25 2022-06-21 湖南大学 一种基于视频轨迹特征关联学习的无监督行人重识别方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110008828A (zh) * 2019-02-21 2019-07-12 上海工程技术大学 基于差异正则化的成对约束成分分析度量优化方法
CN110210335A (zh) * 2019-05-16 2019-09-06 上海工程技术大学 一种行人重识别学习模型的训练方法、系统和装置
CN110378931A (zh) * 2019-07-10 2019-10-25 成都数之联科技有限公司 一种基于多摄像头的行人目标移动轨迹获取方法及系统
CN110728216A (zh) * 2019-09-27 2020-01-24 西北工业大学 一种基于行人属性自适应学习的无监督行人再识别方法
CN110728702A (zh) * 2019-08-30 2020-01-24 深圳大学 一种基于深度学习的高速跨摄像头单目标跟踪方法及系统
CN110991321A (zh) * 2019-11-29 2020-04-10 北京航空航天大学 一种基于标签更正与加权特征融合的视频行人再识别方法
WO2020098158A1 (zh) * 2018-11-14 2020-05-22 平安科技(深圳)有限公司 行人重识别方法、装置及计算机可读存储介质

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9117147B2 (en) * 2011-04-29 2015-08-25 Siemens Aktiengesellschaft Marginal space learning for multi-person tracking over mega pixel imagery
GB201709672D0 (en) * 2017-06-16 2017-08-02 Ucl Business Plc A system and computer-implemented method for segmenting an image
EP3807710B1 (en) * 2018-06-18 2024-01-17 Magic Leap, Inc. Augmented reality display with frame modulation functionality

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020098158A1 (zh) * 2018-11-14 2020-05-22 平安科技(深圳)有限公司 行人重识别方法、装置及计算机可读存储介质
CN110008828A (zh) * 2019-02-21 2019-07-12 上海工程技术大学 基于差异正则化的成对约束成分分析度量优化方法
CN110210335A (zh) * 2019-05-16 2019-09-06 上海工程技术大学 一种行人重识别学习模型的训练方法、系统和装置
CN110378931A (zh) * 2019-07-10 2019-10-25 成都数之联科技有限公司 一种基于多摄像头的行人目标移动轨迹获取方法及系统
CN110728702A (zh) * 2019-08-30 2020-01-24 深圳大学 一种基于深度学习的高速跨摄像头单目标跟踪方法及系统
CN110728216A (zh) * 2019-09-27 2020-01-24 西北工业大学 一种基于行人属性自适应学习的无监督行人再识别方法
CN110991321A (zh) * 2019-11-29 2020-04-10 北京航空航天大学 一种基于标签更正与加权特征融合的视频行人再识别方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Association loss and self-discovery cross-camera anchors detection for unsupervised video-based person re-identification;Xiuhuan yuan 等;International journal of pattern recognition and artificial intelligence;第35卷(第14期);2150040.1-2150040.22 *
基于小片段轨迹无监督的视频行人重识别研究;袁秀欢;中国优秀硕士学位论文全文数据库 信息科技辑(第01期);I138-1976 *
无监督学习三元组用于视频行人重识别研究;蔡江琳 等;智能计算机与应用;第12卷(第11期);18-25 *
跨摄像头多目标跟踪的研究;熊月;中国优秀硕士学位论文全文数据库信息科技辑(第03期);I138-1203 *

Also Published As

Publication number Publication date
CN111914730A (zh) 2020-11-10

Similar Documents

Publication Publication Date Title
CN111914730B (zh) 一种基于联合时空采样的无监督视频序列行人再识别方法
CN109344787B (zh) 一种基于人脸识别与行人重识别的特定目标跟踪方法
Yu et al. Cocas: A large-scale clothes changing person dataset for re-identification
CN111400547B (zh) 一种人机协作的视频异常检测方法
Yang et al. An online learned CRF model for multi-target tracking
Yang et al. Spatio-temporal action detection with cascade proposal and location anticipation
CN111709311B (zh) 一种基于多尺度卷积特征融合的行人重识别方法
US10679067B2 (en) Method for detecting violent incident in video based on hypergraph transition
CN110008797B (zh) 一种多摄像机多人脸视频接续采集方法
CN104751136B (zh) 一种基于人脸识别的多相机视频事件回溯追踪方法
Yang et al. Real-time and accurate segmentation of moving objects in dynamic scene
CN110232330B (zh) 一种基于视频检测的行人重识别方法
CN110717411A (zh) 一种基于深层特征融合的行人重识别方法
JP4866754B2 (ja) 行動履歴検索装置及び行動履歴検索方法
CN107909033A (zh) 基于监控视频的嫌疑人快速追踪方法
CN110991321B (zh) 一种基于标签更正与加权特征融合的视频行人再识别方法
CN110728216A (zh) 一种基于行人属性自适应学习的无监督行人再识别方法
CN112580525B (zh) 一种基于行人再识别的病例活动轨迹监测方法
CN110796074A (zh) 一种基于时空数据融合的行人再识别方法
US20190171899A1 (en) Automatic extraction of attributes of an object within a set of digital images
CN113435329B (zh) 一种基于视频轨迹特征关联学习的无监督行人重识别方法
CN113436231B (zh) 行人轨迹生成方法、装置、设备及存储介质
CN107729811B (zh) 一种基于场景建模的夜间火焰检测方法
CN108985216B (zh) 一种基于多元logistic回归特征融合的行人头部检测方法
CN110688895A (zh) 基于多模板学习的井下跨视域目标检测跟踪方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant