CN108898614B - 一种基于层次式时空区域合并的物体轨迹提议方法 - Google Patents

一种基于层次式时空区域合并的物体轨迹提议方法 Download PDF

Info

Publication number
CN108898614B
CN108898614B CN201810569130.5A CN201810569130A CN108898614B CN 108898614 B CN108898614 B CN 108898614B CN 201810569130 A CN201810569130 A CN 201810569130A CN 108898614 B CN108898614 B CN 108898614B
Authority
CN
China
Prior art keywords
hierarchical
region
video frame
frame
regions
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810569130.5A
Other languages
English (en)
Other versions
CN108898614A (zh
Inventor
任桐炜
武港山
孙旭
王元天
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University
Original Assignee
Nanjing University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University filed Critical Nanjing University
Priority to CN201810569130.5A priority Critical patent/CN108898614B/zh
Publication of CN108898614A publication Critical patent/CN108898614A/zh
Application granted granted Critical
Publication of CN108898614B publication Critical patent/CN108898614B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

一种基于层次式时空区域合并的物体轨迹提议方法,在视频上通过匹配相邻帧的层次式视频帧区域构建视频的层次式时空区域表示,然后通过合并层次式时空区域来产生候选物体轨迹,最后使用一种融合了外观似物性和运动似物性的综合评分机制对候选物体轨迹进行评分,将评分最高的若干个候选物体轨迹作为最终的物体轨迹提议结果。本发明方法融合了视频中物体的外观信息和运动信息,利用整个视频的时空特性来生产物体轨迹提议结果,取得了比现有方法更好的效果。

Description

一种基于层次式时空区域合并的物体轨迹提议方法
技术领域
本发明属于计算机视觉技术领域,涉及到针对视频的物体轨迹提议方法,具体为一种基于层次式时空区域合并的物体轨迹提议方法
背景技术
物体轨迹提议的目标是用有限数量的包围框序列来标识视频中可能包含物体的区域。这项技术作为计算机视觉领域的基础技术,可以广泛应用于面向视频的物体识别、运动识别、物体分割、内容检索等领域,是一个重要且新颖的研究方向。
现有的物体轨迹提议方法的基本策略是:在视频的一帧或若干帧上使用图像物体提议方法得到单个视频帧上可能包含物体的包围框,然后使用物体跟踪器在剩余的视频帧上对上述包围框进行跟踪,从而得到物体轨迹提议结果。也有部分方法对该策略进行了改进,如在物体轨迹提议中对计算复杂度进行控制等来提升效率,但对视频的物体轨迹提议的准确性效果改进不大。
图像物体提议中,物体的外观特征和位置都不会发生变化,现有的图像物体提议估计方法通过抽取图像中物体的外观特征,使用基于窗口评分或区域合并的策略已经可以达到比较好的效果。然而,在视频的物体轨迹提议中,由于视频中的物体位置会随着物体运动和镜头运动不断变化,且物体外观也会受物体运动、光照变化等因素影响而变化,以及视频处理固有的较高的计算复杂度,现有的视频物体轨迹提议方法在准确性和效率上仍有较大的提升空间。本发明所涉及的方法采用层次式时空区域来表示视频,并通过层次式时空区域的组合式合并来产生候选物体轨迹,充分融合了视频中物体的外观信息和运动信息来获取物体轨迹提议结果。
发明内容
本发明要解决的问题是:现有的物体轨迹提议方法主要还是依靠图像提议,再由图像推导视频,没有考虑到视频的变化特性,未能利用整个视频的时空特性来进行似物性估计,造成物体轨迹提议效果欠佳。对视频物体轨迹提议方法的相关研究仍然处于不成熟的阶段。
本发明的技术方案为:一种基于层次式时空区域合并的物体轨迹提议方法,在视频上通过匹配相邻帧的层次式视频帧区域构建视频的层次式时空区域表示,然后通过合并层次式时空区域来产生候选物体轨迹,最后使用多模态评分机制对候选物体轨迹进行评分,所述多模态评分机制由外观似物性评分和运动似物性评分组成,将评分最高的若干个候选物体轨迹作为最终的物体轨迹提议结果。
进一步的,本发明包括以下步骤:
1)通过匹配相邻帧的层次式视频帧区域构建视频的层次式时空区域表示:
1.1)在每个视频帧f上使用超分割轮廓图(ultrametric contour map)方法,将该视频帧分割为多个基本视频帧区域,作为层次式视频帧区域表示中的叶节点区域,叶节点区域构成的集合为Lf;迭代地合并相邻且相似的视频帧区域,视频帧区域包括叶节点区域和合并的视频帧区域,每一次合并得到一个新的视频帧区域,各个层次所有视频帧区域所构成的集合为层次式视频帧区域表示,记为Hf
1.2)构造矩阵Rf用于表示层次式视频帧区域与叶节点区域之间的包含关系,Rf矩阵的大小为|Hf|×|Lf|;|·|表示集合中的元素个数;若第f帧视频的第i个层次式视频帧区域包含了第p个叶节点区域,则
Figure GDA0003279854040000021
等于1,否则
Figure GDA0003279854040000022
等于0;
1.3)在相邻视频帧之间进行光流估计,根据光流估计结果来匹配相邻视频帧的视频帧区域,连接相邻视频帧中匹配成功的视频帧区域构成层次式时空区域,由所述层次式时空区域得到视频的初始层次式时空区域集合S0
1.4)采用物体跟踪器尝试连接集合S0中任意满足以下条件的层次式时空区域对{am,an}:
1.4.a)am和an的长度不小于预先设定帧数;
1.4.b)am的起始帧
Figure GDA0003279854040000023
在an终止帧
Figure GDA0003279854040000024
之后的一定范围之内;
连接方法如下:使用物体跟踪器在视频帧
Figure GDA0003279854040000025
Figure GDA0003279854040000026
之间跟踪an
Figure GDA0003279854040000027
上的视频帧区域的包围框bn,若bn
Figure GDA0003279854040000028
上的跟踪结果b′n与am
Figure GDA0003279854040000029
上的视频帧区域包围框bm的交并比大于设定阈值,则将am与an连接为同一个层次式时空区域;上述操作完成后,得到新的第一层次式时空区域集合S1
2)通过层次式时空区域的组合式合并获得候选物体轨迹:
2.1)从视频的第一层次式时空区域集合S1中移除长度小于设定阈值的层次式时空区域,得到第二层次式时空区域集合S2
2.2)为集合S2中的每一个层次式时空区域计算边缘连通度,移除集合S2中边缘连通度高于设定阈值的层次式时空区域,得到第三层次式时空区域集合S3
2.3)将集合S3中相邻度超过设定阈值的层次式时空区域进行组合式合并,得到候选物体轨迹集合V:
V=∪ Vk,k=1,2,3,4,
其中,V1表示任意一个层次式时空区域组成的候选物体轨迹集合;当k=2,3,4时,Vk表示任意k个相邻的层次式时空区域组成的候选物体轨迹集合;
3)融合外观似物性和运动似物性对候选物体轨迹进行评分,并将评分高的候选物体轨迹作为物体轨迹提议结果:
3.1)为每一个候选物体轨迹tr计算外观评分:
Figure GDA0003279854040000031
其中,yA(·)表示外观似物性评分;f1和fK表示tr出现的第一帧和最后一帧;
Figure GDA0003279854040000032
表示tr在第f帧的层次式视频帧区域组合;||tr||表示候选物体轨迹tr的长度,即tr出现的帧数;
3.2)为每一个候选物体轨迹tr计算运动评分:
Figure GDA0003279854040000033
其中,yM(·)表示运动似物性评分;f1和fK表示tr出现的第一帧和最后一帧;
Figure GDA0003279854040000034
表示tr在第f帧的层次式视频帧区域组合的平均运动强度;
Figure GDA0003279854040000035
表示第f帧的背景平均运动强度;
Figure GDA0003279854040000036
表示
Figure GDA0003279854040000037
的绝对值;
3.3)为每一个候选物体轨迹计算综合评分:
y(tr)=μ·yA(tr)+(1-μ)·yM(tr),
其中,μ表示外观评分权重值,μ等于0.7;
3.4)对候选物体轨迹的综合评分进行排序,取评分最高的h个候选物体轨迹,提取候选物体轨迹在它出现的视频帧上的包围框作为物体轨迹提议的结果。
本发明与现有技术相比有如下优点:采用层次式时空区域来表示视频,通过带约束的组合式合并来产生构成复杂的候选物体轨迹,融合物体的外观似物性和运动似物性对候选物体轨迹评分,充分利用了视频中物体的外观信息和运动信息。相对于现有方法,本发明在控制计算复杂度的同时获得了更好的效果。图3展示了现有物体轨迹提议方法和本发明的比较结果,可见本发明的物体轨迹提议结果具有更高的平均轨迹交并比和召回率,利用整个视频的时空特性来生产物体轨迹提议结果,提升了物体轨迹提议的效果。
附图说明
图1为本发明的实施流程。
图2与本发明与现有物体轨迹提议方法结果的比较示例。
图3为本发明与现有物体轨迹提议方法在从ILSVRC2016-VID数据集中随机挑选的200个视频所构成的数据集上的比较结果。
具体实施方式
本发明提出了一种基于层次式时空区域合并的物体轨迹提议方法,如图1所示,包括以下步骤:
1)通过匹配相邻帧的层次式视频帧区域构建视频的层次式时空区域表示:
1.1)在每个视频帧f上使用超分割轮廓图(ultrametric contour map)方法,将该视频帧分割为多个基本视频帧区域,作为层次式视频帧区域表示中的叶节点区域,叶节点区域构成的集合为Lf,其中,视频帧区域就是指视频帧上分割出的区域,超分割轮廓图方法分割结果为小的区域,也即叶节点区域,具体参见参考文献[2]。迭代地合并相邻且相似的视频帧区域,这里的视频帧区域包括叶节点区域和合并得到的视频帧区域,每一次合并得到一个新的视频帧区域,这里合并是逐步进行的,每次只合并当前所有视频帧区域中相邻且相似的两个视频帧区域,此时视频帧区域可以是超分割轮廓图分割的最底层的叶节点区域,也可以是合并形成的更大的区域,各个层次所有视频帧区域所构成的集合即为层次式视频帧区域表示,记为Hf。“层次式视频帧区域表示”是指各个层次的视频帧区域的集合,单个的也可表述为“视频帧区域”。
1.2)层次式视频帧区域中各个区域是由叶节点区域逐步合并得来的,存在包含关系,构造矩阵Rf用于表示层次式视频帧区域与叶节点区域之间的包含关系,Rf矩阵的大小为|Hf|×|Lf|;|·|表示集合中的元素个数;若第f帧视频的第i个层次式视频帧区域包含了第p个叶节点区域,则
Figure GDA0003279854040000041
等于1,否则
Figure GDA0003279854040000042
等于0。
1.3)在相邻视频帧之间进行光流估计,根据光流估计结果来匹配相邻视频帧的视频帧区域,连接相邻视频帧中匹配成功的视频帧区域构成层次式时空区域,由所述层次式时空区域得到视频的初始层次式时空区域集合S0
具体为:
1.3.a)计算每个视频帧的光流,构建相邻视频帧之间的像素映射关系,进而构建相邻视频帧之间叶节点区域的匹配关系矩阵Zf→f+1
Figure GDA0003279854040000043
其中,
Figure GDA0003279854040000044
表示第f帧的第p个叶节点区域映射到第f+1帧的第q个叶节点区域的像素个数;
Figure GDA0003279854040000045
表示第f+1帧的一个像素子集,是第f帧的第p个叶节点区域中的像素根据光流映射后在第f+1帧上所对应的像素集合;
Figure GDA0003279854040000046
表示第f+1帧的第q个叶节点区域包含的像素集合;|·|表示集合中的元素个数;同理得到Zf+1→f
1.3.b)计算相邻视频帧的层次式视频帧区域的匹配关系矩阵Xf→f+1
Xf→f+1=RfZf→f+1(Rf+1)T
其中,矩阵元素
Figure GDA0003279854040000051
表示第f帧的第i个层次式视频帧区域映射到第f+1帧的第j个层次式视频帧区域的像素个数;同理得到Xf+1→f
1.3.c)将矩阵Xf→f+1归一化:
Figure GDA0003279854040000052
其中,
Figure GDA0003279854040000053
表示第f帧的第i个层次式视频帧区域映射到第f+1帧的第j个层次式视频帧区域的像素个数占第f帧的第i个层次式视频帧区域的像素总数的比例,
Figure GDA0003279854040000054
表示第f帧的第i个层次式视频帧区域所包含的像素集合,|·|表示集合中的元素个数;同理得到Ωf+1→f
1.3.d)若
Figure GDA0003279854040000055
Figure GDA0003279854040000056
均大于设定的阈值(例如0.5),则认为第f帧的第i个层次式视频帧区域与第f+1帧的第j个层次式视频帧区域匹配成功,相邻帧匹配成功的层次式视频帧区域组成的序列就构成了时空区域,由此将视频表示为初始层次式时空区域集合S0
1.4)采用物体跟踪器尝试连接集合S0中任意满足以下条件的层次式时空区域对{am,an}:
1.4.a)am和an的长度不小于预先设定帧数,例如10帧;
1.4.b)am的起始帧
Figure GDA0003279854040000057
在an终止帧
Figure GDA0003279854040000058
之后的一定范围之内,例如4帧以内;
连接方法如下:使用物体跟踪器在视频帧
Figure GDA0003279854040000059
Figure GDA00032798540400000510
之间跟踪an
Figure GDA00032798540400000511
上的视频帧区域的包围框bn,若bn
Figure GDA00032798540400000512
上的跟踪结果b′n与am
Figure GDA00032798540400000513
上的视频帧区域包围框bm的交并比大于设定阈值,则将am与an连接为同一个层次式时空区域;上述操作完成后,得到新的第一层次式时空区域集合S1
2)通过层次式时空区域的组合式合并获得候选物体轨迹:
2.1)由于物体轨迹提议只关注在视频中持续出现一定时间的物体,长度过短的时空区域对产生候选物体轨迹没有贡献,将其过滤掉有助于减少时空区域的数量和降低时空区域合并的计算复杂度。因此,从视频的第一层次式时空区域集合S1中移除长度小于设定阈值的层次式时空区域,例如移除长度小于20帧的层次式时空区域,得到第二层次式时空区域集合S2
2.2)仅包含背景的时空区域通常具有较长的长度,无法通过长度过滤;且这些时空区域通常与包含物体的时空区域相邻,将其过滤掉可以避免误导时空区域合并。因此,为集合S2中的每一个层次式时空区域计算边缘连通度,移除S2中边缘连通度高于设定阈值的层次式时空区域,例如移除边缘连通性高于0.9的层次式时空区域,得到第三层次式时空区域集合S3
边缘连通度的计算方法为:
Figure GDA0003279854040000061
Figure GDA0003279854040000062
其中,am表示层次式时空区域,可以表示为层次式视频帧区域序列
Figure GDA0003279854040000063
||am||表示am的长度;
Figure GDA0003279854040000064
表示am在第fl帧的层次式视频帧区域,
Figure GDA0003279854040000065
是一个像素集合;
Figure GDA0003279854040000066
Figure GDA0003279854040000067
在视频帧边缘上的像素集合;|·|表示集合中的元素个数;
Figure GDA0003279854040000068
表示
Figure GDA0003279854040000069
的边缘连通度;U(am)表示时空区域am的边缘连通度;阈值γ等于1。
2.3)将S3中相邻度超过设定阈值的层次式时空区域进行组合式合并,本实施例中阈值设为0.3,得到候选物体轨迹集合V:
V=∪ Vk,k=1,2,3,4,
其中,V1表示任意一个层次式时空区域组成的候选物体轨迹的集合;当k=2,3,4时,Vk表示任意k个相邻的层次式时空区域组成的候选物体轨迹的集合;
相邻度的计算方法为:
2.3.a)为每个视频帧的层次式视频帧区域构造相邻关系矩阵:
Ef=RfGf(Rf)T
其中,Gf表示一个|Lf|×|Lf|的对称矩阵,若第f帧的第p叶节点区域和第q个叶节点区域相邻,则
Figure GDA00032798540400000610
等于1,否则等于0;Ef表示大小为|Hf|×|Hf|的对称矩阵,若第f帧的第i个层次式视频帧区域和第j个层次式视频帧区域相邻或包含关系,则
Figure GDA00032798540400000611
等于1,否则等于0;
2.3.b)对于步骤2.2)得到的S3中的任意层次式时空区域对{am,an},计算二者的相邻度:
Figure GDA00032798540400000612
其中,f1和fK表示am和an同时出现的第一帧和最后一帧;
Figure GDA00032798540400000613
Figure GDA00032798540400000614
分别表示层次式时空区域am和an在第f帧的层次式视频帧区域,根据2.3.a)中的层次式视频帧区域相邻关系矩阵Ef,若
Figure GDA00032798540400000615
Figure GDA00032798540400000616
是相邻或包含关系,则
Figure GDA00032798540400000617
等于1,否则等于0。
3)融合外观似物性和运动似物性对候选物体轨迹进行评分,并将评分高的候选物体轨迹作为物体轨迹提议结果:
3.1)为每一个候选物体轨迹tr计算外观评分:
Figure GDA0003279854040000071
其中,yA(·)表示外观似物性评分;f1和fK表示tr出现的第一帧和最后一帧;
Figure GDA0003279854040000072
表示tr在第f帧的层次式视频帧区域组合;||tr||表示候选物体轨迹tr的长度,即tr出现的帧数。
3.2)为每一个候选物体轨迹tr计算运动评分:
Figure GDA0003279854040000073
其中,yM(·)表示运动似物性评分;f1和fK表示tr出现的第一帧和最后一帧;
Figure GDA0003279854040000074
表示tr在第f帧的层次式视频帧区域组合的平均运动强度;
Figure GDA0003279854040000075
表示第f帧的背景平均运动强度;
Figure GDA0003279854040000076
表示
Figure GDA0003279854040000077
的绝对值。
3.3)为每一个候选物体轨迹计算综合评分:
y(tr)=μ·yA(tr)+(1-μ)·yM(tr),
其中,μ表示外观评分权重值,μ等于0.7。
3.4)对候选物体轨迹的综合评分进行排序,取评分最高的h个候选物体轨迹,提取候选物体轨迹在它出现的视频帧上的包围框作为物体轨迹提议的结果。
本发明实施在从ILSVRC2016-VID数据集中随机挑选的200个视频所构成的数据集上,与现有的物体轨迹提议方法进行了比较。图2所示为本方法得到的结果和其他方法结果的比较示例,白色的包围框为人工标注框,黑色的包围框为物体轨迹提议结果,其中图2中的(f)为本方法的结果。参与比较的代表性方法如图2中的(a)-(e)所示,依次为:在视频的中间帧采用multi-scale combinatorial grouping方法(MCG-参考文献2)进行图像物体提议后,对得到的包围框使用物体跟踪器(KCF-参考文献3)跟踪产生物体轨迹提议的基准方法(MCG*);在视频中间帧使用edge boxes方法(参考文献4)进行图像物体提议后,对得到的包围框使用物体跟踪器(KCF-参考文献3)跟踪产生物体轨迹提议的基准方法(EB*);freeobject discovery方法(FOD-参考文献5);object trajectory proposal方法(OTP-参考文献6);spatio-temporal object detection proposal方法(SODP-参考文献1)。图3中的(a)展示了物体轨迹提议结果数量与平均轨迹交并比的曲线,图3中的(b)展示了物体轨迹提议结果数量与召回率的曲线。表1为本发明方法与现有物体轨迹提议运行效率的比较结果。
表1
Figure GDA0003279854040000081
由图3可以发现,当返回500个物体轨迹提议结果时,在平均轨迹交并比和召回率上,本方法的效果明显优于其它方法。由此可见,本发明能够产生效果更好的物体轨迹提议结果。由表1可以发现,本发明方法虽稍慢于现有方法,但综合物体轨迹预测效果和时间开销,本发明方法优于现有的物体轨迹提议方法。
参考文献:
1.Dan,Oneata and Revaud,Jerome and Verbeek,Jakob and Schmid,Cordelia.Spatio-temporal Object Detection Proposals European Conference onComputer Vision.2014:737-752.
2.Pont-Tuset,Jordi,Pablo Andrés Arbeláez,Jonathan T.Barron,FerranMarqués and Jitendra Malik.Multiscale Combinatorial Grouping for ImageSegmentation and Object Proposal Generation.IEEE Transactions on PatternAnalysis and Machine Intelligence.2017:128-140.
3.
Figure GDA0003279854040000082
F.Henriques,Caseiro Rui,Pedro Martins,and Jorge Batista.High-Speed Tracking with Kernelized Correlation Filters.IEEE Transactions onPattern Analysis and Machine Intelligence.2015:583–596.
4.Zitnick,C.Lawrence and Dollár,Piotr.Edge Boxes:Locating ObjectProposals from Edges.European Conference on Computer Vision.2014:391-405.
5.Cuffaro,Giovanni and Becattini,Federico and Baecchi,Claudio andSeidenari,Lorenzo and Bimbo,Alberto Del.Segmentation Free Object Discovery inVideo.European Conference on Computer Vision Workshop.2016:25-31.
6.Xindi Shang and Tongwei Ren and Hanwang Zhang and Gangshan Wu andTat-Seng Chua.Object Trajectory Proposal IEEE International Conference onMultimedia and Expo.2017:331-336.

Claims (5)

1.一种基于层次式时空区域合并的物体轨迹提议方法,其特征是在视频上通过匹配相邻帧的层次式视频帧区域构建视频的层次式时空区域表示,使用超分割轮廓图方法将视频帧分割,视频帧区域就是指视频帧上分割出的区域,迭代地合并相邻且相似的视频帧区域,层次式视频帧区域表示是指各个层次的视频帧区域的集合,包括视频帧分割出的区域和相邻帧合并的视频帧区域;然后通过合并层次式时空区域来产生候选物体轨迹,最后使用多模态评分机制对候选物体轨迹进行评分,所述多模态评分机制由外观似物性评分和运动似物性评分组成,将评分最高的若干个候选物体轨迹作为最终的物体轨迹提议结果。
2.根据权利要求1所述的一种基于层次式时空区域合并的物体轨迹提议方法,其特征是包括以下步骤:
1)通过匹配相邻帧的层次式视频帧区域构建视频的层次式时空区域表示:
1.1)在每个视频帧f上使用超分割轮廓图方法,将该视频帧分割为多个基本视频帧区域,作为层次式视频帧区域表示中的叶节点区域,叶节点区域构成的集合为Lf;迭代地合并相邻且相似的视频帧区域,视频帧区域包括叶节点区域和合并的视频帧区域,每一次合并得到一个新的视频帧区域,各个层次所有视频帧区域所构成的集合为层次式视频帧区域表示,记为Hf
1.2)构造矩阵Rf用于表示层次式视频帧区域与叶节点区域之间的包含关系,Rf矩阵的大小为|Hf|×|Lf|;|·|表示集合中的元素个数;若第f帧视频的第i个层次式视频帧区域包含了第p个叶节点区域,则
Figure FDA0003504158050000011
等于1,否则
Figure FDA0003504158050000012
等于0;
1.3)在相邻视频帧之间进行光流估计,根据光流估计结果来匹配相邻视频帧的视频帧区域,连接相邻视频帧中匹配成功的视频帧区域构成层次式时空区域,由所述层次式时空区域得到视频的初始层次式时空区域集合S0
1.4)采用物体跟踪器尝试连接集合S0中任意满足以下条件的层次式时空区域对{am,an}:
1.4.a)am和an的长度不小于预先设定帧数;
1.4.b)am的起始帧
Figure FDA0003504158050000013
在an终止帧
Figure FDA0003504158050000014
之后的一定范围之内;
连接方法如下:使用物体跟踪器在视频帧
Figure FDA0003504158050000015
Figure FDA0003504158050000016
之间跟踪an
Figure FDA0003504158050000017
上的视频帧区域的包围框bn,若bn
Figure FDA0003504158050000018
上的跟踪结果b′n与am
Figure FDA0003504158050000019
上的视频帧区域包围框bm的交并比大于设定阈值,则将am与an连接为同一个层次式时空区域;上述操作完成后,得到新的第一层次式时空区域集合S1
2)通过层次式时空区域的组合式合并获得候选物体轨迹:
2.1)从视频的第一层次式时空区域集合S1中移除长度小于设定阈值的层次式时空区域,得到第二层次式时空区域集合S2
2.2)为集合S2中的每一个层次式时空区域计算边缘连通度,移除集合S2中边缘连通度高于设定阈值的层次式时空区域,得到第三层次式时空区域集合S3
2.3)将集合S3中相邻度超过设定阈值的层次式时空区域进行组合式合并,得到候选物体轨迹集合V:
V=∪Vk,k=1,2,3,4,
其中,V1表示任意一个层次式时空区域组成的候选物体轨迹集合;当k=2,3,4时,Vk表示任意k个相邻的层次式时空区域组成的候选物体轨迹集合;
3)融合外观似物性和运动似物性对候选物体轨迹进行评分,并将评分高的候选物体轨迹作为物体轨迹提议结果:
3.1)为每一个候选物体轨迹tr计算外观评分:
Figure FDA0003504158050000021
其中,yA(·)表示外观似物性评分;f1和fK表示tr出现的第一帧和最后一帧;
Figure FDA0003504158050000022
表示tr在第f帧的层次式视频帧区域组合;||tr||表示候选物体轨迹tr的长度,即tr出现的帧数;
3.2)为每一个候选物体轨迹tr计算运动评分:
Figure FDA0003504158050000023
其中,yM(·)表示运动似物性评分;f1和fK表示tr出现的第一帧和最后一帧;
Figure FDA0003504158050000024
表示tr在第f帧的层次式视频帧区域组合的平均运动强度;
Figure FDA0003504158050000025
表示第f帧的背景平均运动强度;
Figure FDA0003504158050000026
表示
Figure FDA0003504158050000027
的绝对值;
3.3)为每一个候选物体轨迹计算综合评分:
y(tr)=μ·yA(tr)+(1-μ)·yM(tr),
其中,μ表示外观评分权重值,μ等于0.7;
3.4)对候选物体轨迹的综合评分进行排序,取评分最高的h个候选物体轨迹,提取候选物体轨迹在它出现的视频帧上的包围框作为物体轨迹提议的结果。
3.根据权利要求2所述的一种基于层次式时空区域合并的物体轨迹提议方法,其特征是步骤1.3)所述的层次式时空区域的构造方法具体为:
1.3.a)计算每个视频帧的光流,构建相邻视频帧之间的像素映射关系,进而构建相邻视频帧之间叶节点区域的匹配关系矩阵Zf→f+1
Figure FDA0003504158050000031
其中,
Figure FDA0003504158050000032
表示第f帧的第p个叶节点区域映射到第f+1帧的第q个叶节点区域的像素个数;
Figure FDA0003504158050000033
表示第f+1帧的一个像素子集,是第f帧的第p个叶节点区域中的像素根据光流映射后在第f+1帧上所对应的像素集合;
Figure FDA0003504158050000034
表示第f+1帧的第q个叶节点区域包含的像素集合;|·|表示集合中的元素个数;同理得到Zf+1→f
1.3.b)计算相邻视频帧的层次式视频帧区域的匹配关系矩阵Xf→f+1
Xf→f+1=RfZf→f+1(Rf+1)T
其中,矩阵元素
Figure FDA0003504158050000035
表示第f帧的第i个层次式视频帧区域映射到第f+1帧的第j个层次式视频帧区域的像素个数;同理得到Xf+1→f
1.3.c)将矩阵Xf→f+1归一化:
Figure FDA0003504158050000036
其中,
Figure FDA0003504158050000037
表示第f帧的第i个层次式视频帧区域映射到第f+1帧的第j个层次式视频帧区域的像素个数占第f帧的第i个层次式视频帧区域的像素总数的比例,
Figure FDA0003504158050000038
表示第f帧的第i个层次式视频帧区域所包含的像素集合,|·|表示集合中的元素个数;同理得到Ωf+1→f
1.3.d)若
Figure FDA0003504158050000039
Figure FDA00035041580500000310
均大于设定的阈值,则认为第f帧的第i个层次式视频帧区域与第f+1帧的第j个层次式视频帧区域匹配成功,相邻帧匹配成功的层次式视频帧区域组成的序列就构成了时空区域,由此将视频表示为初始层次式时空区域集合S0
4.根据权利要求2所述的一种基于层次式时空区域合并的物体轨迹提议方法,其特征是步骤2.2)所述的边缘连通度的计算方法为:
Figure FDA00035041580500000311
Figure FDA00035041580500000312
其中,am表示层次式时空区域,可以表示为层次式视频帧区域序列
Figure FDA00035041580500000313
||am||表示am的长度;
Figure FDA00035041580500000314
表示am在第fl帧的层次式视频帧区域,
Figure FDA00035041580500000315
是一个像素集合;
Figure FDA00035041580500000316
Figure FDA00035041580500000317
在视频帧边缘上的像素集合;|·|表示集合中的元素个数;
Figure FDA00035041580500000318
表示
Figure FDA00035041580500000319
的边缘连通度;U(am)表示时空区域am的边缘连通度;阈值γ等于1。
5.根据权利要求2所述的一种基于层次式时空区域合并的物体轨迹提议方法,其特征是步骤2.3)的层次式时空区域相邻度的计算方法:
2.3.a)为每个视频帧的层次式视频帧区域构造相邻关系矩阵:
Ef=RfGf(Rf)T
其中,Gf表示一个|Lf|×|Lf|的对称矩阵,若第f帧的第p叶节点区域和第q个叶节点区域相邻,则
Figure FDA0003504158050000041
等于1,否则等于0;Ef表示大小为|Hf|×|Hf|的对称矩阵,若第f帧的第i个层次式视频帧区域和第j个层次式视频帧区域相邻或包含关系,则
Figure FDA0003504158050000042
等于1,否则等于0;
2.3.b)对于步骤2.2)得到的S3中的任意层次式时空区域对{am,an},计算二者的相邻度:
Figure FDA0003504158050000043
其中,f1和fK表示am和an同时出现的第一帧和最后一帧;
Figure FDA0003504158050000044
Figure FDA0003504158050000045
分别表示层次式时空区域am和an在第f帧的层次式视频帧区域,根据2.3.a)中的层次式视频帧区域相邻关系矩阵Ef,若
Figure FDA0003504158050000046
Figure FDA0003504158050000047
是相邻或包含关系,则
Figure FDA0003504158050000048
等于1,否则等于0。
CN201810569130.5A 2018-06-05 2018-06-05 一种基于层次式时空区域合并的物体轨迹提议方法 Active CN108898614B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810569130.5A CN108898614B (zh) 2018-06-05 2018-06-05 一种基于层次式时空区域合并的物体轨迹提议方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810569130.5A CN108898614B (zh) 2018-06-05 2018-06-05 一种基于层次式时空区域合并的物体轨迹提议方法

Publications (2)

Publication Number Publication Date
CN108898614A CN108898614A (zh) 2018-11-27
CN108898614B true CN108898614B (zh) 2022-06-21

Family

ID=64344144

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810569130.5A Active CN108898614B (zh) 2018-06-05 2018-06-05 一种基于层次式时空区域合并的物体轨迹提议方法

Country Status (1)

Country Link
CN (1) CN108898614B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110197502B (zh) * 2019-06-06 2021-01-22 山东工商学院 一种基于身份再识别的多目标跟踪方法及系统
CN110263733B (zh) * 2019-06-24 2021-07-23 上海商汤智能科技有限公司 图像处理方法、提名评估方法及相关装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103593361A (zh) * 2012-08-14 2014-02-19 中国科学院沈阳自动化研究所 感应网络环境下移动时空轨迹分析方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103593361A (zh) * 2012-08-14 2014-02-19 中国科学院沈阳自动化研究所 感应网络环境下移动时空轨迹分析方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
"Edge Boxes: Locating Object Proposals from Edges";C. Lawrence等;《Microsoft Research》;20140930;第1-15页 *
"OBJECT TRAJECTORY PROPOSAL";Xindi Shang等;《Proceedings of the IEEE International Conference on Multimedia and Expo (ICME) 2017》;20170714;第331-336页 *
"Spatio-Temporal Object Detection Proposals";Dan Oneata等;《ResearchGate》;20140930;第1-18页 *

Also Published As

Publication number Publication date
CN108898614A (zh) 2018-11-27

Similar Documents

Publication Publication Date Title
Ming et al. Deep learning-based person re-identification methods: A survey and outlook of recent works
Von Stumberg et al. Gn-net: The gauss-newton loss for multi-weather relocalization
Bashir et al. Vr-proud: Vehicle re-identification using progressive unsupervised deep architecture
CN110263712B (zh) 一种基于区域候选的粗精行人检测方法
CN107145862B (zh) 一种基于霍夫森林的多特征匹配多目标跟踪方法
Karasulu Review and evaluation of well-known methods for moving object detection and tracking in videos
CN107316031A (zh) 用于行人重识别的图像特征提取方法
CN110992381A (zh) 一种基于改进Vibe+算法的运动目标背景分割方法
US20120275649A1 (en) Foreground object tracking
CN106709419B (zh) 一种基于显著轨迹空间信息的视频人体行为识别方法
CN106778768A (zh) 基于多特征融合的图像场景分类方法
Tang et al. Robust tracking with discriminative ranking lists
Horbert et al. Sequence-level object candidates based on saliency for generic object recognition on mobile systems
Lin et al. Deep learning of spatio-temporal features with geometric-based moving point detection for motion segmentation
CN108898614B (zh) 一种基于层次式时空区域合并的物体轨迹提议方法
Fan et al. Complementary tracking via dual color clustering and spatio-temporal regularized correlation learning
CN115457082A (zh) 一种基于多特征融合增强的行人多目标跟踪算法
CN105957103A (zh) 一种基于视觉的运动特征提取方法
CN109002808B (zh) 一种人体行为识别方法及系统
CN104331700B (zh) 基于轨迹能量扩散图的组行为识别方法
Li et al. Event-assisted Low-Light Video Object Segmentation
Liu et al. Multi-view vehicle detection and tracking in crossroads
Almomani et al. Segtrack: A novel tracking system with improved object segmentation
Chung et al. Multi-camera multi-vehicle tracking with domain generalization and contextual constraints
Abdullah-Al-Wadud et al. Skin segmentation using color distance map and water-flow property

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant