CN110766715B - 一种结合单目标轨迹的多目标跟踪方法 - Google Patents
一种结合单目标轨迹的多目标跟踪方法 Download PDFInfo
- Publication number
- CN110766715B CN110766715B CN201911055886.9A CN201911055886A CN110766715B CN 110766715 B CN110766715 B CN 110766715B CN 201911055886 A CN201911055886 A CN 201911055886A CN 110766715 B CN110766715 B CN 110766715B
- Authority
- CN
- China
- Prior art keywords
- target
- track
- position set
- frame image
- new
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种结合单目标轨迹的多目标跟踪方法,涉及目标跟踪技术领域。包括以下步骤:获取第t+1帧图像;对该第t+1帧图像进行多目标检测,构建第一目标位置集;对第t帧图像进行单目标跟踪,预测该目标在第t+1帧图像中的位置,构建第二目标位置集;将第一目标位置集和第二目标位置集进行合并,得到新目标位置集;将新目标与现有的单目标轨迹进行匹配,将新目标分配给匹配度最高的单目标轨迹中。本发明提高了轨迹分配的准确性,减少了目标漏检的情况发生。
Description
技术领域
本发明涉及目标跟踪技术领域,尤其涉及一种结合单目标轨迹的多目标跟踪方法。
背景技术
视频多目标跟踪是指对视频中出现的特定类型的多个目标同时进行跟踪,形成多个目标的连续轨迹。其中一种主要方法是基于检测的目标跟踪方法,即针对视频的每一帧进行目标检测,形成目标的位置,然后将包围盒中的目标根据相似度原则分配到已存在的轨迹中。这种方法存在以下一些缺点:
1)目标检测在不同帧中存在一定程度的漏检情况,会造成目标轨迹的分配错误,或造成轨迹中断;
2)采用基于图神经网络的方法计算轨迹片段之间的连接,增加了计算复杂度,耗时较长,不具有实用性。
发明内容
本发明的目的在于提供一种结合单目标轨迹的多目标跟踪方法,提高轨迹分配的准确性,同时减少目标漏检的情况发生。
为实现上述目的,本发明提供如下技术方案:
一种结合单目标轨迹的多目标跟踪方法,其特征在于,包括以下步骤:
S1,获取第t+1帧图像;
S2,对该第t+1帧图像进行多目标检测,构建第一目标位置集;
S3,对第t帧图像进行单目标跟踪,预测该目标在第t+1帧图像中的位置,构建第二目标位置集;
S4,将第一目标位置集和第二目标位置集进行合并,得到新目标位置集;
S5,将新目标与现有的单目标轨迹进行匹配,将新目标分配给匹配度最高的单目标轨迹中。
进一步的,所述目标跟踪采用神经网络SiamFC深度神经网络。
进一步的,所述目标跟踪的具体内容如下:以第t帧图像中的目标为样本图像,以第t+1帧图像截取的子图像为待搜索图像,对所述样本图像与待搜索图像进行相同的变换得到对应的特征,并求解相似度;取最大相似度与给定相似度阈值进行比较,若最大相似度大于给定相似度阈值,则取该最大相似度对应的子图像为跟踪目标,记录子图像的位置为目标位置;否则判定第t+1帧图像未跟踪到目标。
进一步的,所述S4中合并过程中存在以下三种情况:
第一目标位置集和第二目标位置集中同时包含某个目标,以第一目标位置集中对应该目标的位置作为新目标位置存入新目标位置集;
仅第一目标位置集中包含某个目标,以第一目标位置集中对应该目标的位置作为新目标位置存入新目标位置集;
仅第二目标位置集中包含某个目标,以第二目标位置集中对应该目标的位置作为新目标位置存入新目标位置集。
进一步的,所述S5的具体方法如下:
依次计算新目标与现有的多个单目标轨迹所在位置的交并比;
其中,A为新目标所在位置,B为单目标轨迹中目标所在位置,IOU为两者的交并比;
取最大交并比与给定交并比阈值进行比较,若交并比大于交并比阈值,则将该新目标添加至最大交并比对应的单目标轨迹当中,否则创建新单目标轨迹。
进一步的,所述S5之后还包括S6,对单目标轨迹进行进行两两相似度计算,将相似度值大于给定相似度阈值的两个单目标轨迹进行连接。
进一步的,所述S6的具体方法如下:
S61,约束两个单目标轨迹的时间间隔;
S62,约束两个单目标轨迹的位置间隔;
S63,将前一单目标轨迹的最后一帧图像和后一单目标轨迹的第一帧图像转化为图像直方图,
S64,计算两个图像直方图的相似度;
S65,在满足S61和S62的约束条件下,若S63的相似度大于给定相似度阈值,则认为两个单目标轨迹为同一目标的轨迹。
进一步的,所述给定相似度阈值为0.8。
与现有技术相比,本发明的有益效果是:本发明通过计算目标的位置进行匹配,简化了计算过程。结合当前帧的多目标检测和单目标跟踪结果作并集,减少了目标漏检的发生,使新目标与已有轨迹的分配更加准确。
附图说明
图1为本发明的方法流程图。
具体实施方式
下面对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参阅图1,本发明提供一种结合单目标轨迹的多目标跟踪方法,包括以下步骤:
S1,视频解码,获取视频的第t+1帧图像;
S2,对该第t+1帧图像进行多目标检测,构建第一目标位置集O;
目标检测算法利用基于神经网络的目标检测方法,回归出第i目标的位置Oi。记检测得到的第一目标位置集为O={O1,O2,...,On};其中Oi为第i目标的位置,包含第i目标所在位置的左上角点坐标(x,y)和包围盒的宽w和高h;
S3,采用神经网络SiamFC深度神经网络对第t帧图像进行单目标跟踪,预测每一目标在第t+1帧图像中的位置,构建第二目标位置集;
针对第t帧图像中的每一目标进行单目标跟踪。具体内容如下:以第t帧图像中的目标为样本图像z,以第t+1帧图像截取的子图像为待搜索图像x,对所述样本图像z与待搜索图像x进行相同的变换得到对应的特征,并求解相似度。具体为:
对于第i目标,取最大相似度与给定相似度阈值进行比较,所述给定相似度阈值优选0.7。若最大相似度大于给定相似度阈值,则取该最大相似度对应的子图像为第i目标的跟踪目标,记录该子图像的位置为目标位置Ti;否则判定第t+1帧图像未跟踪到目标。遍历第t帧图像中的所有目标,得到一系列目标位置,构建第二目标位置集T={T1,T2,...,Tn};其中Ti为第i目标的位置,包含第i目标所在位置的左上角点坐标(x,y)和包围盒的宽w和高h。
S4,将第一目标位置集O={O1,O2,...,On}和第二目标位置集T={T1,T2,...,Tn}进行合并,得到新目标位置集S;具体存在以下三种情况:
第一目标位置集O和第二目标位置集T中同时包含第i目标,表明目标检测和跟踪都捕捉到该对象,以第一目标位置集O中实际检测到的该目标的位置Oi作为新目标位置存入新目标位置集S;
仅第一目标位置O集中包含第i目标,表明目标检测器检测到了该目标,但跟踪器未捕捉到该目标;以第一目标位置集O中对应该目标的位置Oi作为新目标位置存入新目标位置集S;
仅第二目标位置集T中包含第i目标,表明目标检测器漏检了该目标,但跟踪器捕捉到了该目标;以第二目标位置集T中对应该目标的位置Ti作为新目标位置存入新目标位置集S。
合并之后的新目标位置集S包括了第一目标位置集O和第二目标位置集T中所有目标的位置,避免了漏检的发生;同时同一目标的位置仅保留一个,避免了算法的冗余。
S5,将新目标与现有的单目标轨迹进行匹配,将新目标分配给匹配度最高的单目标轨迹中。其中,所述单目标轨迹为第t帧图像已分配好的每一个目标的轨迹。
匹配的具体方法如下:依次计算新目标与现有的多个单目标轨迹所在位置的交并比;
其中,A为新目标所在位置,具体为所在的矩形框;B为单目标轨迹中目标所在位置,具体为所在的矩形框;IOU为两者的交并比;用于衡量新目标和以后轨迹之间的亲密程度,IOU值约大,表明两者越靠近,两者是同一条轨迹的概率越大。
取最大交并比与给定交并比阈值进行比较,交并比阈值优选为0.8;若交并比大于交并比阈值,则将该新目标添加至最大交并比对应的单目标轨迹当中,否则认为该新目标从未出现过,创建新的单目标轨迹,启动新的目标跟踪器。
S6,对所有的单目标轨迹进行进行两两相似度计算,将相似度值大于给定相似度阈值的两个单目标轨迹认定为同一个目标的轨迹并进行连接,减少了轨迹碎片,该步骤中的给定相似度阈值优选0.8。
所述相似度计算的方法如下:
1)约束两段单目标轨迹的时间间隔,设第一段轨迹的最后一帧图像的帧号是i,第二段轨迹第一帧图像的帧号为j,要求j-i<25;
3)分别计算第一段单目标轨迹最后一帧图像的图像直方图H1,第二段单目标轨迹第一帧图像的图像直方图H2,bin的个数取16;
4)根据下式计算直方图H1和直方图H2的相似度:
其中,dh为相似度;H1(I)为图像直方图H1中灰度级I的像素个数;H2(I)为图像直方图H2中灰度级I的像素个数;N为灰度等级总数。
5)当满足条件1)和2)的约束情况下,dh大于给定相似度阈值0.8时,认为此两个单目标轨迹为同一个目标的轨迹。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化囊括在本发明内。
Claims (6)
1.一种结合单目标轨迹的多目标跟踪方法,其特征在于,包括以下步骤:
S1,获取第t+1帧图像;
S2,对该第t+1帧图像进行多目标检测,构建第一目标位置集;
S3,对第t帧图像进行单目标跟踪,预测该目标在第t+1帧图像中的位置,构建第二目标位置集;
S4,将第一目标位置集和第二目标位置集进行合并,得到新目标位置集;
S5,将新目标与现有的单目标轨迹进行匹配,将新目标分配给匹配度最高的单目标轨迹中;
所述S5之后还包括S6,对单目标轨迹进行两两相似度计算,将相似度值大于给定相似度阈值的两个单目标轨迹进行连接;
所述相似度计算的方法如下:
1)约束两段单目标轨迹的时间间隔,设第一段轨迹的最后一帧图像的帧号是i,第二段轨迹第一帧图像的帧号为j,要求j-i<25;
3)分别计算第一段单目标轨迹最后一帧图像的图像直方图H1,第二段单目标轨迹第一帧图像的图像直方图H2,bin的个数取16;
4)根据下式计算直方图H1和直方图H2的相似度:
其中,dh为相似度;H1(I)为图像直方图H1中灰度级I的像素个数;H2(I)为图像直方图H2中灰度级I的像素个数;N为灰度等级总数;
5)当满足条件1)和2)的约束情况下,dh大于给定相似度阈值0.8时,认为此两个单目标轨迹为同一个目标的轨迹。
2.根据权利要求1所述的结合单目标轨迹的多目标跟踪方法,其特征在于,所述目标跟踪采用神经网络SiamFC深度神经网络。
3.根据权利要求2所述的结合单目标轨迹的多目标跟踪方法,其特征在于,所述目标跟踪的具体内容如下:以第t帧图像中的目标为样本图像,以第t+1帧图像截取的子图像为待搜索图像,对所述样本图像与待搜索图像进行相同的变换得到对应的特征,并求解相似度;取最大相似度与给定相似度阈值进行比较,若最大相似度大于给定相似度阈值,则取该最大相似度对应的子图像为跟踪目标,记录子图像的位置为目标位置;否则判定第t+1帧图像未跟踪到目标。
4.根据权利要求1所述的结合单目标轨迹的多目标跟踪方法,其特征在于,所述S4中合并过程中存在以下三种情况:
第一目标位置集和第二目标位置集中同时包含某个目标,以第一目标位置集中对应该目标的位置作为新目标位置存入新目标位置集;
仅第一目标位置集中包含某个目标,以第一目标位置集中对应该目标的位置作为新目标位置存入新目标位置集;
仅第二目标位置集中包含某个目标,以第二目标位置集中对应该目标的位置作为新目标位置存入新目标位置集。
6.根据权利要求1所述的结合单目标轨迹的多目标跟踪方法,其特征在于,所述给定相似度阈值为0.8。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911055886.9A CN110766715B (zh) | 2019-10-31 | 2019-10-31 | 一种结合单目标轨迹的多目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911055886.9A CN110766715B (zh) | 2019-10-31 | 2019-10-31 | 一种结合单目标轨迹的多目标跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110766715A CN110766715A (zh) | 2020-02-07 |
CN110766715B true CN110766715B (zh) | 2022-05-31 |
Family
ID=69335478
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911055886.9A Active CN110766715B (zh) | 2019-10-31 | 2019-10-31 | 一种结合单目标轨迹的多目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110766715B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111627045B (zh) * | 2020-05-06 | 2021-11-02 | 佳都科技集团股份有限公司 | 单镜头下的多行人在线跟踪方法、装置、设备及存储介质 |
CN112634355A (zh) * | 2020-12-22 | 2021-04-09 | 深圳市道通智能航空技术有限公司 | 一种目标跟踪方法、装置、设备及存储介质 |
CN113421288B (zh) * | 2021-08-23 | 2021-12-17 | 杭州云栖智慧视通科技有限公司 | 一种多目标实时轨迹跟踪中的静止轨迹碎片改进方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102779184A (zh) * | 2012-06-29 | 2012-11-14 | 中国科学院自动化研究所 | 一种近似重复视频片段自动定位方法 |
CN103324706A (zh) * | 2013-06-17 | 2013-09-25 | 中国矿业大学 | 具有时间约束的轨迹数据热点区域的方法 |
CN105488815A (zh) * | 2015-11-26 | 2016-04-13 | 北京航空航天大学 | 一种支持目标尺寸变化的实时对象跟踪方法 |
CN106875421A (zh) * | 2017-01-19 | 2017-06-20 | 博康智能信息技术有限公司北京海淀分公司 | 一种多目标跟踪方法及装置 |
CN109636829A (zh) * | 2018-11-24 | 2019-04-16 | 华中科技大学 | 一种基于语义信息和场景信息的多目标跟踪方法 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101777184B (zh) * | 2009-11-11 | 2012-01-04 | 中国科学院自动化研究所 | 基于局部距离学习和排序队列的视觉目标跟踪方法 |
CN102881024B (zh) * | 2012-08-24 | 2015-03-11 | 南京航空航天大学 | 一种基于tld的视频目标跟踪方法 |
CN105046220A (zh) * | 2015-07-10 | 2015-11-11 | 华为技术有限公司 | 一种多目标跟踪方法、装置及设备 |
CN108875666B (zh) * | 2018-06-27 | 2023-04-18 | 腾讯科技(深圳)有限公司 | 运动轨迹的获取方法、装置、计算机设备及存储介质 |
CN109325961B (zh) * | 2018-08-27 | 2021-07-09 | 北京悦图数据科技发展有限公司 | 无人机视频多目标跟踪方法及装置 |
CN109816692A (zh) * | 2019-01-11 | 2019-05-28 | 南京理工大学 | 一种基于Camshift算法的运动目标跟踪方法 |
CN109829435B (zh) * | 2019-01-31 | 2023-04-25 | 深圳市商汤科技有限公司 | 一种视频图像处理方法、装置及计算机可读介质 |
CN110287778B (zh) * | 2019-05-15 | 2021-09-10 | 北京旷视科技有限公司 | 一种图像的处理方法、装置、终端及存储介质 |
CN110276780A (zh) * | 2019-06-17 | 2019-09-24 | 广州织点智能科技有限公司 | 一种多目标跟踪方法、装置、电子设备及存储介质 |
-
2019
- 2019-10-31 CN CN201911055886.9A patent/CN110766715B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102779184A (zh) * | 2012-06-29 | 2012-11-14 | 中国科学院自动化研究所 | 一种近似重复视频片段自动定位方法 |
CN103324706A (zh) * | 2013-06-17 | 2013-09-25 | 中国矿业大学 | 具有时间约束的轨迹数据热点区域的方法 |
CN105488815A (zh) * | 2015-11-26 | 2016-04-13 | 北京航空航天大学 | 一种支持目标尺寸变化的实时对象跟踪方法 |
CN106875421A (zh) * | 2017-01-19 | 2017-06-20 | 博康智能信息技术有限公司北京海淀分公司 | 一种多目标跟踪方法及装置 |
CN109636829A (zh) * | 2018-11-24 | 2019-04-16 | 华中科技大学 | 一种基于语义信息和场景信息的多目标跟踪方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110766715A (zh) | 2020-02-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110766715B (zh) | 一种结合单目标轨迹的多目标跟踪方法 | |
CN109903312B (zh) | 一种基于视频多目标跟踪的足球球员跑动距离统计方法 | |
US7929765B2 (en) | Video text processing apparatus | |
CN110349187B (zh) | 基于tsk模糊分类器的目标跟踪方法、装置及存储介质 | |
CN111882586B (zh) | 一种面向剧场环境的多演员目标跟踪方法 | |
CN115311329B (zh) | 一种基于双环节约束的视频多目标跟踪方法 | |
CN110633643A (zh) | 一种面向智慧社区的异常行为检测方法及系统 | |
CN110674680B (zh) | 活体识别的方法、装置、存储介质 | |
CN110349188B (zh) | 基于tsk模糊模型的多目标跟踪方法、装置及存储介质 | |
CN111931571B (zh) | 基于在线增强检测的视频文字目标追踪方法与电子设备 | |
CN113112519A (zh) | 基于感兴趣目标分布的关键帧筛选方法 | |
CN105261040B (zh) | 一种多目标跟踪方法及装置 | |
US20170053172A1 (en) | Image processing apparatus, and image processing method | |
CN110097585B (zh) | 一种基于sift算法的sar影像匹配方法及系统 | |
CN115861738A (zh) | 一种类别语义信息引导的遥感目标检测主动采样方法 | |
US7203358B2 (en) | Method and device for measuring similarity between images | |
CN111598158B (zh) | 一种基于ai分析技术的仓储库存状态感知方法 | |
CN110349184B (zh) | 基于迭代滤波和观测判别的多行人跟踪方法 | |
CN115932765B (zh) | 基于多源数据分析的雷达失效自动检测系统及方法 | |
CN111275733A (zh) | 基于深度学习目标检测技术实现多艘船舶快速跟踪处理的方法 | |
CN110889347A (zh) | 基于时空计数特征的密度交通流计数方法及系统 | |
RU2446471C1 (ru) | Способ обнаружения движущихся объектов и определения их параметров | |
CN115063443A (zh) | 一种实时多目标跟踪方法及系统 | |
CN111339873B (zh) | 客流统计方法、装置、存储介质及计算设备 | |
CN112907623A (zh) | 一种固定视频流中运动目标的统计方法及其系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right | ||
TR01 | Transfer of patent right |
Effective date of registration: 20221201 Address after: 310000 Room 401, building 2, No.16, Zhuantang science and technology economic block, Xihu District, Hangzhou City, Zhejiang Province Patentee after: Hangzhou yunqi smart Vision Technology Co.,Ltd. Address before: 310000 room 279, building 6, No. 16, Zhuantang science and technology economic block, Zhuantang street, Xihu District, Hangzhou City, Zhejiang Province Patentee before: Smart vision (Hangzhou) Technology Development Co.,Ltd. |