CN111914730A - 一种基于联合时空采样的无监督视频序列行人再识别方法 - Google Patents

一种基于联合时空采样的无监督视频序列行人再识别方法 Download PDF

Info

Publication number
CN111914730A
CN111914730A CN202010737980.9A CN202010737980A CN111914730A CN 111914730 A CN111914730 A CN 111914730A CN 202010737980 A CN202010737980 A CN 202010737980A CN 111914730 A CN111914730 A CN 111914730A
Authority
CN
China
Prior art keywords
camera
under
small
track
pedestrian
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010737980.9A
Other languages
English (en)
Other versions
CN111914730B (zh
Inventor
袁秀欢
韩华
唐佳敏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai University of Engineering Science
Original Assignee
Shanghai University of Engineering Science
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai University of Engineering Science filed Critical Shanghai University of Engineering Science
Priority to CN202010737980.9A priority Critical patent/CN111914730B/zh
Publication of CN111914730A publication Critical patent/CN111914730A/zh
Application granted granted Critical
Publication of CN111914730B publication Critical patent/CN111914730B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/49Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于联合时空采样的无监督视频序列行人再识别方法,包括:获取训练数据集并进行联合时空采样;进行单摄像头下小片段轨迹特征学习;进行单摄像头下行人小片段轨迹排序;计算单摄像头下小片段轨迹的关联损失;进行跨摄像头下小片段轨迹特征学习;进行跨摄像头下行人小片段轨迹排序;计算跨摄像头下小片段轨迹的关联损失;构造全局关联损失函数;判断是否满足迭代结束条件,若是,则执行步骤10,否则,返回步骤2;结束迭代,完成行人再识别。与现有技术相比,本发明具有识别准确度高、适用于无标签数据集的学习、稳定性高、可靠性和实用性高等优点。

Description

一种基于联合时空采样的无监督视频序列行人再识别方法
技术领域
本发明涉及视频序列的行人再识别技术领域,尤其是涉及一种基于联合时空 采样的无监督视频序列行人再识别方法。
背景技术
行人再识别的目的是匹配不同摄像头下的行人,尽管大多数的再识别方法是基于静态的图片,但由于视频中的行人小片段轨迹具有丰富的时空信息也越来越得到 关注。视频序列中的小片段轨迹是指单个行人图片的组合序列,包含了行人在不同 视野、遮挡、背景模糊和行人姿态变化的各种信息,可以自然地作为行人再识别的 相关数据源,更具有研究意义。而当前的行人再识别方法多是基于有监督学习,在 实际的跨摄像头网络下不仅需要很大的成本标记数据,而且不能保证每对摄像头都 有足够的指定行人的出现。针对此现象,无监督的视频行人再识别在实际应用中更 有实际性,从而提高再识别模型的可靠性。
现有的处理小片段轨迹的方法多是采用关联排序的方法,例如中国专利CN111079600A中公开了一种多摄像头的行人识别方法及识别系统,该系统就使用 了关联排序的方法,该方法在许多实验中显示出较好的效果,但是加强对关联学习 的理论解释仍是一项非常重要的任务。在很多实验中,单摄像头下的行人小片段轨 迹关联性可以达到很好的效果,但是针对跨摄像头的小片段轨迹关联会产生许多关 联错误,且样本的复杂多样性使跨摄像头下的关联计算成本变高,计算时间加长。 多摄像头下的关联排序方法内容主要包括:第一是单摄像头下的特征学习,与目标 样本特征比较排序,计算目标样本特征与搜索的样本特征之间的关联损失;第二是 跨摄像头下,联合单摄像头下学习的目标样本特征作为跨摄像头下的目标,与配对 摄像头下的样本特征比较排序,计算样本特征间的关联损失。
因此,小片段轨迹间的关联方法在视频行人再识别中具有重要意义,尽管目前 国内外的研究已经取得了很优秀的研究成果,但是随着监控摄像网络的发展扩大, 拍摄条件的恶化,以及安防需求的提高,目前已有关联排序方法在视频行人再识别 的准确度和计算成本上不能满足实际应用的需求。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种识别准确度高、适用于无标签数据集的学习、稳定性高、可靠性和实用性高的基于联合时空采 样的无监督视频序列行人再识别方法。
本发明的目的可以通过以下技术方案来实现:
一种基于联合时空采样的无监督视频序列行人再识别方法,该方法为内嵌在计算机内的程序,包括:
步骤1:获取训练数据集并进行联合时空采样;
步骤2:进行单摄像头下小片段轨迹特征学习;
步骤3:进行单摄像头下行人小片段轨迹排序;
步骤4:计算单摄像头下小片段轨迹的关联损失;
步骤5:进行跨摄像头下小片段轨迹特征学习;
步骤6:进行跨摄像头下行人小片段轨迹排序;
步骤7:计算跨摄像头下小片段轨迹的关联损失;
步骤8:构造全局关联损失函数;
步骤9:判断是否满足迭代结束条件,若是,则执行步骤10,否则,返回步骤 2;
步骤10:结束迭代,完成行人再识别。
优选地,所述的步骤1具体为:
使用既有的行人检测和跟踪模型获取不同摄像头下的行人小片段轨迹;
所述的联合时空采样的采样规则具体为:
在同一个时间窗口下,为每个小片段轨迹设置不同的身份标签;在第i时间采 样中,检索某个时间点Si下的所有小片段轨迹并标记;设置采样时间间隔P,即下 一采样时间点Si+1为Si+P,其中采样时间间隔P大于行人穿过单个摄像头的时间 T,即P>T,最终获得每个摄像头下独立标记的小片段轨迹集合{Si},联合采样 前的数据集构成训练数据集。
优选地,所述的步骤2中单摄像头下小片段轨迹特征学习具体为:
在摄像头k下,共有Nk个小片段轨迹,将所有小片段轨迹初始化为图片特征 表示的平均值
Figure BDA0002605810780000031
任选其中一帧图片特征fk,p,采用滑动平均的方式更新特征 学习:
Figure BDA0002605810780000032
其中,η为更新率,||l2(·)||2=1,t表示迭代次数。
优选地,所述的步骤3中单摄像头下行人小片段轨迹排序具体为:
使用l2距离计算fk,p与xk,i之间的相似度,并按照相似度排序,首先计算图片 特征fk,p与所有小片段轨迹图片特征表示的平均值
Figure BDA0002605810780000033
之间的距离:
Figure BDA0002605810780000034
然后进行排序,并寻找Rank-1的小片段轨迹xk,t,计算fk,p与xk,t之间的最小 距离:
Figure BDA0002605810780000035
其中,||l2(·)||2=1。
优选地,所述的步骤4中单摄像头下小片段轨迹的关联损失的计算方法为:
Figure BDA0002605810780000036
其中,Dp,p为图片特征fk,p与其对应的小片段轨迹特征xk,p之间的l2距离;Dp,t表示fk,p与Rank-1的小片段轨迹xk,t之间的l2距离;
Figure BDA0002605810780000037
表示 Rank-1的xk,t与在摄像头k下随机采样的M张图片特征距离的平均值;p=t表示 Rank-1的xk,t是fk,p对应的小片段轨迹特征;m为一常量;
Figure BDA0002605810780000038
Figure BDA0002605810780000039
Figure BDA00026058107800000310
其中,xp为fk,p对应的小片段轨迹P中的任一帧图像;xn为Rank-1的小片段 轨迹N中的任一帧图像;||2(·)||2=1。
优选地,所述的步骤5中跨摄像头下小片段轨迹特征学习具体为:
将摄像头k下的小片段轨迹图片特征表示的平均值xk,i与摄像头l下的 Rank-1的小片段轨迹特征xl,t合并为跨摄像头下的特征αk,i,αk,i具体为:
Figure BDA0002605810780000041
其中,j=i表示迭代后的摄像头k下的小片段轨迹特征与迭代前的特征相同; ||l2(·)||2=1。
优选地,所述的步骤6中跨摄像头下行人小片段轨迹排序具体为:
将摄像头k下的小片段轨迹图片特征表示的平均值xk,i作为搜索目标,寻找摄 像头l下最关联的小片段轨迹,对摄像头l下的小片段轨迹排序:
{Dp,i|Dp,i=||l2(fk,p)-l2(xl,i)||2,i∈Nl}
然后确定Rank-1的小片段轨迹xl,t,计算fk,p与摄像头l下xl,t的最小距离:
Figure BDA0002605810780000042
其中,||l2(·)||2=1。
优选地,所述的步骤7中跨摄像头下小片段轨迹的关联损失的计算方法为:
Figure BDA0002605810780000043
Figure BDA0002605810780000044
其中,
Figure BDA0002605810780000045
为跨摄像头下的目标样本,xp是αk,p对应的小片段轨迹P(a)中 的任一帧图像;||l2(·)||2=1。
优选地,所述的全局关联损失函数为:
L=L1+λLC
其中,L1为单摄像头下小片段轨迹的关联损失函数;LC为跨摄像头下小片段 轨迹的关联损失函数;λ为权衡参数。
优选地,所述的迭代结束条件具体为:判断是否达到预设迭代次数,若是,则 完成迭代,否则,继续进行迭代。
与现有技术相比,本发明具有以下优点:
一、识别准确度高:本发明中的行人再识别方法考虑到了视频序列中的行人 小片段轨迹包含有效的时空信息并加以利用,学习到更加丰富的特征信息,提高识 别的准确度。
二、适用于无标签数据集的学习:本发明中的行人再识别方法考虑到了单摄 像头和跨摄像头下行人的出现时间及空间位置不同,对获取的小片段轨迹进行采样 并自主标记,减少模型学习的错误,通过对采样标记的数据集学习不变的视觉特征, 使模型适应于无标签数据集的学习。
三、稳定性高:本发明中的行人再识别方法引入自适应权重定义的关联损失 函数,使模型学习时可以有效区分简单和困难样本,对异常值具有鲁棒性,从而提 高模型的准确度和稳定性。
四、可靠性和实用性高:本发明中的行人再识别方法基于无监督的学习方法 更加贴近实际的视频监控。
附图说明
图1为本发明中行人再识别方法的流程示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、 完整地描述,显然,所描述的实施例是本发明的一部分实施例,而不是全部实施例。 基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获 得的所有其他实施例,都应属于本发明保护的范围。
一种基于联合时空采样的无监督视频序列行人再识别方法,其流程如图1所示,该方法考虑到视频序列中行人小片段轨迹具有丰富的时空信息,可以自然用于行人 再识别中,又由于跨摄像头下行人小片段轨迹复杂多样,会产生大量的计算成本和 关联错误,基于监控视频的三个特点:(1)在单个摄像头下,行人在短时间内不会 再次出现,因此单个行人具有多条小片段轨迹多是因为跟踪失败导致较长的轨迹断 裂产生;(2)处于不同位置的行人应是不同的人;(3)大多数行人穿过单个摄像头 的时间较短,因此在经过一个较长的时间间隔P后,再次出现的行人应该不是同一 个人。对获取的样本集合采样并标记,从而减少网络学习时将同一个人的多条小片 段轨迹当作不同的人的错误,同时,可以避免当行人外观发生视觉变化时,模型依 然能够感知到具有判别力的信息。具体包括以下步骤:
一、获取训练数据集并进行联合时空采样
利用现有的检测和跟踪模型获取不同摄像头下的行人小片段轨迹,考虑到单摄像头下,在某个时间点,多个行人在不同的位置应该具有明显的身份标志,因此在 第i时间采样的实例中,检索某个时间点Si下的所有小片段轨迹并标记;考虑到公 共场景下,大多数行人穿过单个摄像头的时间为T,设置一个时间间隔P,使P>T, 即下一次采样时间Si+1为Si+P,最终获得每个摄像头下独立标记的小片段轨迹集 合{Si},并联合采样前的数据集构成最终的训练数据集。
无监督学习时,由于跨摄像机下缺少成对标记的行人标签,当行人穿过每对摄 像机,视觉外观发生变化时,模型不能有效的感知到判别信息,因此联合利用公共 场景下获取的无标签数据集和联合时空采样的数据集来训练模型,联合时空采样的 具体规则如下:
(1)在同一个时间窗口下,为每个小片段轨迹设置不同的身份标签;
(2)空间采样:考虑到单摄像头时,在某个相同的时间点,在不同的位置的 多个行人应该具有明显不同的身份,因此在第i时间采样的实例中,检索某个时间 点Si下的所有小片段轨迹并标记;
(3)时间采样:考虑到公共场景下,大多数行人穿过单个摄像头的时间为T, 设置一个时间间隔P,使P>T,即下一次采样时间Si+1为Si+P,从而减少在单摄 像头下,每个行人具有多条小片段轨迹的比例。
二、进行单摄像头下小片段轨迹特征学习
在摄像头k下,共有Nk个小片段轨迹,将所有小片段轨迹初始化为图片特征 表示的平均值
Figure BDA0002605810780000061
任选其中一帧图片特征fk,p,采用滑动平均的方式更新特征 学习:
Figure BDA0002605810780000062
其中,η为更新率,本实施例中η取0.5,||l2(·)2=1,t表示小批量集合中的 迭代次数,采用滑动平均的方式迭代更新,可以有效减少迭代学习时的计算时间。
三、进行单摄像头下行人小片段轨迹排序,使用l2距离计算fk,p与xk,i之间的 相似度,并按照相似度排序。
首先计算图片特征fk,p与所有小片段轨迹图片特征表示的平均值
Figure BDA0002605810780000071
之间 的距离:
{Dp,i|Dp,i=||l2(fk,p)-l2(xk,i)||2,i∈Nk}
然后进行排序,寻找Rank-1的小片段轨迹xk,t,计算fk,p与xk,t之间的最小距 离:
Figure BDA0002605810780000072
四、计算单摄像头下小片段轨迹的关联损失
为了规范模型学习,以及模型对样本难易程度的区分,引入自适应权重ω进行 约束,仿照三重损失函数定义单个摄像头下小片段轨迹的关联损失函数L1,并且利 用随机梯度下降的方法调整深度模型的参数来优化关联损失,提高单摄像头下小片 段轨迹的辨别力,促进跨摄像头下的小片段轨迹的关联性。
具体为:引入自适应权重,计算Rank-1小片段轨迹特征xk,t与fk,p对应的小片 段轨迹的关联损失L1
Figure BDA0002605810780000073
其中,Dp,p为图片特征fk,p与其对应的小片段轨迹特征xk,p之间的l2距离;Dp,t表示fk,p与Rank-1的小片段轨迹xk,t之间的l2距离;
Figure BDA0002605810780000074
表示 Rank-1的xk,t与在摄像头k下随机采样的M张图片特征距离的平均值;p=t表示 Rank-1的xk,t是fk,p对应的小片段轨迹特征;m为一常量,保证不同的小片段轨迹 之间的距离更大或是使相同的小片段轨迹之间的距离更小。
Figure BDA0002605810780000075
Figure BDA0002605810780000076
Figure BDA0002605810780000077
其中,xp为fk,p对应的小片段轨迹P中的任一帧图像;xn为Rank-1的小片段 轨迹N中的任一帧图像;||l2(·)||2=1。
权重ω会根据随机采样的M张图片与Rank-1的xk,t之间的特征距离变化而变 化,即每个样本的权重均匀分布。
自适应权重可以有效区分简单和困难样本,即对困难的样本,权重较大,且在 学习过程中,对异常值鲁棒,不会影响到权重,从而提高准确度和鲁棒性。
五、进行跨摄像头下小片段轨迹特征学习
将摄像头k下的小片段轨迹图片特征表示的平均值xk,i与摄像头l下的 Rank-1的小片段轨迹特征xl,t合并为跨摄像头下的特征αk,i,αk,i具体为:
Figure BDA0002605810780000081
其中,j=i表示迭代后的摄像头k下的小片段轨迹特征与迭代前的特征相同。
六、进行跨摄像头下行人小片段轨迹排序
将摄像头k下的小片段轨迹图片特征表示的平均值xk,i作为搜索目标,寻找摄 像头l下最关联的小片段轨迹,对摄像头l下的小片段轨迹排序:
{Dp,i|Dp,i=||l2(fk,p)-l2(xl,i)||2,i∈Nl}
然后确定Rank-1的小片段轨迹xl,t,计算fk,p与摄像头l下xl,t的最小距离:
Figure BDA0002605810780000082
七、计算跨摄像头下小片段轨迹的关联损失
计算方法为:
Figure BDA0002605810780000083
Figure BDA0002605810780000084
其中,
Figure BDA0002605810780000085
为跨摄像头下的目标样本,xp是αk,p对应的小片段轨迹P(a)中 的任一帧图像。
八、构造全局关联损失函数
引入一个权衡参数λ来联合L1和LC关联损失后并后向传播给网络。
L=L1+λLC
九、判断是否满足迭代结束条件,若是,则执行十,否则,返回二。
本实施例中的迭代条件具体为:判断是否达到预设迭代次数,若是,则完成迭 代,否则,继续进行迭代。根据不同大小的数据设置迭代的次数,通常设为104~105次,大的数据集的迭代次数较小,反之较大。当迭代次数达到最大时,结束迭代。
十、结束迭代,完成行人再识别。
通过上述方法得到的视频行人再识别方法,考虑到了视频序列中的行人小片段轨迹包含有效的时空信息并加以利用,学习到更加丰富的特征信息,提高识别的准 确度;考虑到单摄像头和跨摄像头下行人的出现时间及空间位置不同,对获取的小 片段轨迹进行采样并自主标记,减少模型学习的错误,通过对采样标记的数据集学 习不变的视觉特征,使模型适应于无标签数据集的学习;引入自适应权重定义的关 联损失函数,使模型学习时可以有效区分简单和困难样本,对异常值具有鲁棒性, 从而提高模型的准确度和稳定性;基于无监督的学习方法更加贴近实际的视频监控, 更加具有可靠性和实际性。通过上述方法得到的视频行人再识别的关联学习方法可 以有效提高无监督条件下的视频行人再识别的效率和准确率,具体可以应用在:
(1)应用于大型公共场所视频监控,可以根据本视频行人再识别的关联学习 方法有效的对监控网络中的行人目标身份关联性判别,对监控中的行人进行行为分 析、目标跟踪等;
(2)应用于刑侦工作,可以利用本方法代替人力,对目标嫌疑人进行寻找识 别、定位,减少破案时间,提高破案效率;
(3)应用于目标检索,可以根据本视频行人再识别方法对海量视频中的目标 进行检索。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此, 任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到各种等效 的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。因此,本发明 的保护范围应以权利要求的保护范围为准。

Claims (10)

1.一种基于联合时空采样的无监督视频序列行人再识别方法,该方法为内嵌在计算机内的程序,其特征在于,包括:
步骤1:获取训练数据集并进行联合时空采样;
步骤2:进行单摄像头下小片段轨迹特征学习;
步骤3:进行单摄像头下行人小片段轨迹排序;
步骤4:计算单摄像头下小片段轨迹的关联损失;
步骤5:进行跨摄像头下小片段轨迹特征学习;
步骤6:进行跨摄像头下行人小片段轨迹排序;
步骤7:计算跨摄像头下小片段轨迹的关联损失;
步骤8:构造全局关联损失函数;
步骤9:判断是否满足迭代结束条件,若是,则执行步骤10,否则,返回步骤2;
步骤10:结束迭代,完成行人再识别。
2.根据权利要求1所述的一种基于联合时空采样的无监督视频序列行人再识别方法,其特征在于,所述的步骤1具体为:
使用既有的行人检测和跟踪模型获取不同摄像头下的行人小片段轨迹;
所述的联合时空采样的采样规则具体为:
在同一个时间窗口下,为每个小片段轨迹设置不同的身份标签;在第i时间采样中,检索某个时间点Si下的所有小片段轨迹并标记;设置采样时间间隔P,即下一采样时间点Si+1为Si+P,其中采样时间间隔P大于行人穿过单个摄像头的时间T,即P>T,最终获得每个摄像头下独立标记的小片段轨迹集合{Si},联合采样前的数据集构成训练数据集。
3.根据权利要求1所述的一种基于联合时空采样的无监督视频序列行人再识别方法,其特征在于,所述的步骤2中单摄像头下小片段轨迹特征学习具体为:
在摄像头k下,共有Nk个小片段轨迹,将所有小片段轨迹初始化为图片特征表示的平均值
Figure FDA0002605810770000011
任选其中一帧图片特征fk,p,采用滑动平均的方式更新特征学习:
Figure FDA0002605810770000021
其中,η为更新率,
Figure FDA0002605810770000029
t表示迭代次数。
4.根据权利要求1所述的一种基于联合时空采样的无监督视频序列行人再识别方法,其特征在于,所述的步骤3中单摄像头下行人小片段轨迹排序具体为:
使用
Figure FDA00026058107700000210
距离计算fk,p与xk,i之间的相似度,并按照相似度排序,首先计算图片特征fk,p与所有小片段轨迹图片特征表示的平均值
Figure FDA0002605810770000022
之间的距离:
Figure FDA00026058107700000211
然后进行排序,并寻找Rank-1的小片段轨迹xk,t,计算fk,p与xk,t之间的最小距离:
Figure FDA0002605810770000023
其中,
Figure FDA00026058107700000212
5.根据权利要求1所述的一种基于联合时空采样的无监督视频序列行人再识别方法,其特征在于,所述的步骤4中单摄像头下小片段轨迹的关联损失的计算方法为:
Figure FDA0002605810770000024
其中,Dp,p为图片特征fk,p与其对应的小片段轨迹特征xk,p之间的
Figure FDA00026058107700000213
距离;Dp,t表示fk,p与Rank-1的小片段轨迹xk,t之间的
Figure FDA00026058107700000214
距离;
Figure FDA0002605810770000025
表示Rank-1的xk,t与在摄像头k下随机采样的M张图片特征距离的平均值;p=t表示Rank-1的xk,t是fk,p对应的小片段轨迹特征;m为一常量;
Figure FDA0002605810770000026
Figure FDA0002605810770000027
Figure FDA0002605810770000028
其中,xp为fk,p对应的小片段轨迹P中的任一帧图像;xn为Rank-1的小片段轨迹N中的任一帧图像;
Figure FDA00026058107700000215
6.根据权利要求1所述的一种基于联合时空采样的无监督视频序列行人再识别方法,其特征在于,所述的步骤5中跨摄像头下小片段轨迹特征学习具体为:
将摄像头k下的小片段轨迹图片特征表示的平均值xk,i与摄像头l下的Rank-1的小片段轨迹特征xl,t合并为跨摄像头下的特征αk,i,αk,i具体为:
Figure FDA0002605810770000031
其中,j=i表示迭代后的摄像头k下的小片段轨迹特征与迭代前的特征相同;
Figure FDA0002605810770000036
7.根据权利要求1所述的一种基于联合时空采样的无监督视频序列行人再识别方法,其特征在于,所述的步骤6中跨摄像头下行人小片段轨迹排序具体为:
将摄像头k下的小片段轨迹图片特征表示的平均值xk,i作为搜索目标,寻找摄像头l下最关联的小片段轨迹,对摄像头l下的小片段轨迹排序:
Figure FDA0002605810770000037
然后确定Rank-1的小片段轨迹xl,t,计算fk,p与摄像头l下xl,t的最小距离:
Figure FDA0002605810770000032
其中,
Figure FDA0002605810770000038
8.根据权利要求1所述的一种基于联合时空采样的无监督视频序列行人再识别方法,其特征在于,所述的步骤7中跨摄像头下小片段轨迹的关联损失的计算方法为:
Figure FDA0002605810770000033
Figure FDA0002605810770000034
其中,
Figure FDA0002605810770000035
为跨摄像头下的目标样本,xp是αk,p对应的小片段轨迹P(a)中的任一帧图像;
Figure FDA0002605810770000039
9.根据权利要求1所述的一种基于联合时空采样的无监督视频序列行人再识别方法,其特征在于,所述的全局关联损失函数为:
L=L1+λLC
其中,L1为单摄像头下小片段轨迹的关联损失函数;LC为跨摄像头下小片段轨迹的关联损失函数;λ为权衡参数。
10.根据权利要求1所述的一种基于联合时空采样的无监督视频序列行人再识别方法,其特征在于,所述的迭代结束条件具体为:判断是否达到预设迭代次数,若是,则完成迭代,否则,继续进行迭代。
根据不同大小的数据设置迭代的次数,通常设为104~105次,大的数据集的迭代次数较小,反之较大。当迭代次数达到最大时,结束迭代。
CN202010737980.9A 2020-07-28 2020-07-28 一种基于联合时空采样的无监督视频序列行人再识别方法 Active CN111914730B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010737980.9A CN111914730B (zh) 2020-07-28 2020-07-28 一种基于联合时空采样的无监督视频序列行人再识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010737980.9A CN111914730B (zh) 2020-07-28 2020-07-28 一种基于联合时空采样的无监督视频序列行人再识别方法

Publications (2)

Publication Number Publication Date
CN111914730A true CN111914730A (zh) 2020-11-10
CN111914730B CN111914730B (zh) 2023-11-24

Family

ID=73286734

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010737980.9A Active CN111914730B (zh) 2020-07-28 2020-07-28 一种基于联合时空采样的无监督视频序列行人再识别方法

Country Status (1)

Country Link
CN (1) CN111914730B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113205545A (zh) * 2021-06-07 2021-08-03 苏州卡创信息科技有限公司 区域环境下的行为识别分析方法、系统
CN113435329A (zh) * 2021-06-25 2021-09-24 湖南大学 一种基于视频轨迹特征关联学习的无监督行人重识别方法
CN113536928A (zh) * 2021-06-15 2021-10-22 清华大学 一种高效率的无监督行人重识别方法和装置

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120274781A1 (en) * 2011-04-29 2012-11-01 Siemens Corporation Marginal space learning for multi-person tracking over mega pixel imagery
CN110008828A (zh) * 2019-02-21 2019-07-12 上海工程技术大学 基于差异正则化的成对约束成分分析度量优化方法
CN110210335A (zh) * 2019-05-16 2019-09-06 上海工程技术大学 一种行人重识别学习模型的训练方法、系统和装置
CN110378931A (zh) * 2019-07-10 2019-10-25 成都数之联科技有限公司 一种基于多摄像头的行人目标移动轨迹获取方法及系统
US20190387168A1 (en) * 2018-06-18 2019-12-19 Magic Leap, Inc. Augmented reality display with frame modulation functionality
CN110728702A (zh) * 2019-08-30 2020-01-24 深圳大学 一种基于深度学习的高速跨摄像头单目标跟踪方法及系统
CN110728216A (zh) * 2019-09-27 2020-01-24 西北工业大学 一种基于行人属性自适应学习的无监督行人再识别方法
CN110991321A (zh) * 2019-11-29 2020-04-10 北京航空航天大学 一种基于标签更正与加权特征融合的视频行人再识别方法
WO2020098158A1 (zh) * 2018-11-14 2020-05-22 平安科技(深圳)有限公司 行人重识别方法、装置及计算机可读存储介质
US20200167930A1 (en) * 2017-06-16 2020-05-28 Ucl Business Ltd A System and Computer-Implemented Method for Segmenting an Image

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120274781A1 (en) * 2011-04-29 2012-11-01 Siemens Corporation Marginal space learning for multi-person tracking over mega pixel imagery
US20200167930A1 (en) * 2017-06-16 2020-05-28 Ucl Business Ltd A System and Computer-Implemented Method for Segmenting an Image
US20190387168A1 (en) * 2018-06-18 2019-12-19 Magic Leap, Inc. Augmented reality display with frame modulation functionality
WO2020098158A1 (zh) * 2018-11-14 2020-05-22 平安科技(深圳)有限公司 行人重识别方法、装置及计算机可读存储介质
CN110008828A (zh) * 2019-02-21 2019-07-12 上海工程技术大学 基于差异正则化的成对约束成分分析度量优化方法
CN110210335A (zh) * 2019-05-16 2019-09-06 上海工程技术大学 一种行人重识别学习模型的训练方法、系统和装置
CN110378931A (zh) * 2019-07-10 2019-10-25 成都数之联科技有限公司 一种基于多摄像头的行人目标移动轨迹获取方法及系统
CN110728702A (zh) * 2019-08-30 2020-01-24 深圳大学 一种基于深度学习的高速跨摄像头单目标跟踪方法及系统
CN110728216A (zh) * 2019-09-27 2020-01-24 西北工业大学 一种基于行人属性自适应学习的无监督行人再识别方法
CN110991321A (zh) * 2019-11-29 2020-04-10 北京航空航天大学 一种基于标签更正与加权特征融合的视频行人再识别方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
XIUHUAN YUAN 等: "Association loss and self-discovery cross-camera anchors detection for unsupervised video-based person re-identification", INTERNATIONAL JOURNAL OF PATTERN RECOGNITION AND ARTIFICIAL INTELLIGENCE, vol. 35, no. 14, pages 1 - 2150040 *
熊月: "跨摄像头多目标跟踪的研究", 中国优秀硕士学位论文全文数据库信息科技辑, no. 03, pages 138 - 1203 *
蔡江琳 等: "无监督学习三元组用于视频行人重识别研究", 智能计算机与应用, vol. 12, no. 11, pages 18 - 25 *
袁秀欢: "基于小片段轨迹无监督的视频行人重识别研究", 中国优秀硕士学位论文全文数据库 信息科技辑, no. 01, pages 138 - 1976 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113205545A (zh) * 2021-06-07 2021-08-03 苏州卡创信息科技有限公司 区域环境下的行为识别分析方法、系统
CN113205545B (zh) * 2021-06-07 2023-07-07 苏州卡创信息科技有限公司 区域环境下的行为识别分析方法、系统
CN113536928A (zh) * 2021-06-15 2021-10-22 清华大学 一种高效率的无监督行人重识别方法和装置
CN113536928B (zh) * 2021-06-15 2024-04-19 清华大学 一种高效率的无监督行人重识别方法和装置
CN113435329A (zh) * 2021-06-25 2021-09-24 湖南大学 一种基于视频轨迹特征关联学习的无监督行人重识别方法
CN113435329B (zh) * 2021-06-25 2022-06-21 湖南大学 一种基于视频轨迹特征关联学习的无监督行人重识别方法

Also Published As

Publication number Publication date
CN111914730B (zh) 2023-11-24

Similar Documents

Publication Publication Date Title
CN111914730A (zh) 一种基于联合时空采样的无监督视频序列行人再识别方法
Yang et al. An online learned CRF model for multi-target tracking
CN111709311B (zh) 一种基于多尺度卷积特征融合的行人重识别方法
CN111126360A (zh) 基于无监督联合多损失模型的跨域行人重识别方法
CN111611880B (zh) 一种基于神经网络无监督对比学习的高效行人重识别方法
JP4866754B2 (ja) 行動履歴検索装置及び行動履歴検索方法
WO2017150032A1 (en) Method and system for detecting actions of object in scene
CN108596010B (zh) 行人重识别系统的实现方法
CN110796074B (zh) 一种基于时空数据融合的行人再识别方法
CN111950372A (zh) 一种基于图卷积网络的无监督行人重识别方法
CN113283362B (zh) 一种跨模态的行人重识别方法
CN110728216A (zh) 一种基于行人属性自适应学习的无监督行人再识别方法
CN109583373B (zh) 一种行人重识别实现方法
CN107657232B (zh) 一种行人智能识别方法及其系统
Han et al. End-to-end trainable trident person search network using adaptive gradient propagation
CN111967433A (zh) 一种基于自监督学习网络的动作识别办法
Cho et al. Distance-based camera network topology inference for person re-identification
CN113435329B (zh) 一种基于视频轨迹特征关联学习的无监督行人重识别方法
CN109492702B (zh) 基于排序度量函数的行人重识别方法、系统、装置
CN113436231B (zh) 行人轨迹生成方法、装置、设备及存储介质
CN117218382A (zh) 一种无人系统大跨度穿梭多摄像头轨迹跟踪识别方法
Liang et al. Cross-view person identification by matching human poses estimated with confidence on each body joint
Tagore et al. Person re-identification from appearance cues and deep Siamese features
CN113920470B (zh) 一种基于自注意力机制的行人检索方法
Dutra et al. Re-identifying people based on indexing structure and manifold appearance modeling

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant