CN113379795A - 一种基于条件卷积和光流特征的多目标跟踪与分割方法 - Google Patents

一种基于条件卷积和光流特征的多目标跟踪与分割方法 Download PDF

Info

Publication number
CN113379795A
CN113379795A CN202110557528.9A CN202110557528A CN113379795A CN 113379795 A CN113379795 A CN 113379795A CN 202110557528 A CN202110557528 A CN 202110557528A CN 113379795 A CN113379795 A CN 113379795A
Authority
CN
China
Prior art keywords
optical flow
tracks
track
objects
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110557528.9A
Other languages
English (en)
Other versions
CN113379795B (zh
Inventor
许营坤
陈天阳
徐新黎
杨旭华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University of Technology ZJUT
Original Assignee
Zhejiang University of Technology ZJUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University of Technology ZJUT filed Critical Zhejiang University of Technology ZJUT
Priority to CN202110557528.9A priority Critical patent/CN113379795B/zh
Publication of CN113379795A publication Critical patent/CN113379795A/zh
Application granted granted Critical
Publication of CN113379795B publication Critical patent/CN113379795B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

一种基于条件卷积和光流特征的多目标跟踪与分割方法,首先,将视频每幅图像经过多层卷积操作提取不同尺度大小的外观特征图,同时提取与下一时刻图像的光流场特征,缩放为同样的尺度的运动特征,对外观特征和运动特征融合;其次,利用掩码的非最大抑制算法,合并可能同一对象的分割掩码,生成对应同意物体的唯一掩码;利用重识别网络,对检测和历史轨迹进行匹配,从而得到跟踪和分割的结果。本发明利用条件卷积和光流特征的融合算法,提高了图像目标检测和分割的便捷性和有效性,降低了单张图像检测的不可靠性,同时利用关联特征得到了跟踪的匹配结果。

Description

一种基于条件卷积和光流特征的多目标跟踪与分割方法
技术领域
本专利涉及计算机视觉与机器学习领域,特别是指一种面向行人的多目标与分割的处理方法。
背景技术
近年来,随着人工智能产业的持续火热,计算机视觉逐渐成为较为活跃的研究领域,而多目标跟踪是计算机视觉领域中具有重要研究意义的课题之一。随着计算机性能的不断提高与深度学习技术的不断发展,基于深度学习的目标跟踪技术逐渐成为研究热点,在取得突破性进展的同时被广泛应用于模式识别、无人驾驶、人机交互、智能机器人和视频监控等领域。
行人目标检测与跟踪是计算机视觉领域的一个重要方向,由于其技术应用场景愈发复杂,如何优化算法性能来应对这样的复杂场景,是我们的重要研究目标。当前的复杂环境问题主要有以下几点。(1)行人的遮挡问题,对于行人的遮挡可以大致的划分为行人的主动性和被动性遮挡,针对遮挡的情况可以划分为部分遮挡和完全遮挡,其中的完全遮挡可能会导致追踪目标和前期检测目标的不匹配并导致ID跳变,造成判断失误。(2)行人的外观刚性形变问题,如果行人自身发生不确定的形变(动作或者行人重叠等变化),追踪行人的特征就会产生变化,导致低匹配的追踪失效。这个问题也可能由拍摄光线、摄像角度等因素引起。(3)视频模糊或视频背景复杂问题,视频中行人的高速运动会导致行人的外观特征(如轮廓、纹理、边缘等)变得模糊,而造成追踪失效。同时,复杂的环境也对追踪算法的模型有着较高的要求。
根据轨迹生成模式划分,多目标跟踪算法可以大致分为两类:离线多目标跟踪和在线多目标跟踪。
离线算法能够预先获得连续图像序列的整体信息,其中包括全序列的图像信息和检测结果,而后将多目标跟踪任务转化为检测结果的聚类。计算聚类检测结果的最大后验概率的过程,也就是实现多目标跟踪预测的过程,可以被转化为不同形式、不同类别的数理模型。其中有一些工作将多目标跟踪问题转化为图优化任务,将邻近帧间的目标检测匹配看作图中节点之间的边,进而可以通过最小代价网络流,k最短路径或者基于多裁剪和多分割的子图分解方法进行处理。
在线跟踪算法运行中,跟踪器只能接受到当前帧的图像信息和检测结果。所以,多目标跟踪问题可以被转化为将已有轨迹与当前图像中获取到的检测结果进行相似性度量,判定各个检测结果是否为正在跟踪目标轨迹的延伸的过程,这一过程被称为数据关联。大量研究针对多目标跟踪过程中的数据关联任务进行算法研究,例如,采用随机森林的方法对不同轨迹之前的外观特征进行匹配。
发明内容
为了解决现有的行人遮挡、跟踪准确度不高、鲁棒性差等问题,本发明提出了一种融合神经网络提取的特征和光流特征的多目标跟踪与分割方法。
本发明解决其技术问题所采用的技术方案是:
一种基于条件卷积和光流特征的多目标跟踪与分割方法,包括如下步骤:
步骤一:输入当前时刻图像帧,通过卷积神经网络提取当前图的像五个不同尺度大小的外观特征fi,i=1,2,3,4,5,同时,输入当前图像相对于上一帧和下一帧的光流结果,通过下采样以及多个卷积层计算得到与fi相同大小的五个相应尺度的光流特征pi,i=1,2,3,4,5;将光流特征pi与外观特征fi相乘,计算公共特征,再将公共特征与外观特征fi按元素相加,得到含有运动信息的特征图,并传入特征金字塔网络;
步骤二:对特征金字塔网络提取的特征图进行检测,得到当前图片上检测到的目标信息D1={d1,d2,d3,…},其中每个d包含{class,score,box,mask,offset},class代表该目标类别,只对行人进行检测,scores代表检测的置信度得分,box代表回归的边界框,mask代表分割掩码,offset表示该目标在下一帧上的偏移量;
步骤三:去除D1中置信度小于检测阈值θ的目标,并将检测集合D1进行基于分割掩码的非最大值抑制(Mask NMS)处理,结果检测初始化为活跃轨迹T={t1,t2,t3,…},删除的检测设为不活跃轨迹inactive_tracks={t1,t2,t3,…},并删除不活跃轨迹中存活时间大于max_age的轨迹;
步骤四:输入第二帧图片以及该图片相对于下一帧的光流特征,并重复步骤一和步骤二得到第二帧图片上的D;
步骤五:每个活跃轨迹t通过offset去计算在第二帧上可能出现的位置dp,如果dp置信度大于回归阈值λ的用于更新T中的轨迹,否则添加到不活跃的轨迹inactive_tracks;
步骤六:通过重识别(re-ID)网络分别提取D和T中对象的n=128维外观特征向量,并遍历循环计算外观特征向量的欧式距离
Figure BDA0003077717580000031
通过匈牙利算法进行匹配,D中成功匹配上的对象用于更新T中的对象,未成功匹配的对象再与不活跃轨迹Inactive_Track进行外观特征向量的匹配,成功匹配的轨迹添加到活跃轨迹中,D中仍未匹配的对象初始化为新的轨迹添加到T中,以此达到更新轨迹的目的;
步骤七:循环输入视频的下一帧,并重复步骤四和步骤五;
步骤八:对于每张图片上对象的分割结果,当出现某个像素点被分配给多个对象时,将该像素点分配给置信度得分更高的对象。
本发明的技术构思为:将光流特征与神经网络提取的特征融合,并通过网络中的offset分支去预测目标在下一帧上的位置,以此增强网络对遮挡目标的检测能力。然后通过re-ID网络对目标进行关联,以此来更新轨迹。
本发明的有益效果为:利用光流特征,提出了一种鲁棒性强、像素级的多目标跟踪方法,提高了多目标跟踪并分割的跟踪精度,降低了漏检和误检率
附图说明
图1为本发明的流程图。
具体实施方式
下面结合附图对本发明做进一步说明。
参照图1,一种基于条件卷积和光流特征的多目标跟踪与分割方法,包括如下步骤:
步骤一:输入当前时刻图像帧,通过卷积神经网络提取当前图的像五个不同尺度大小的外观特征fi,i=1,2,3,4,5,同时,输入当前图像相对于上一帧和下一帧的光流结果,通过下采样以及多个卷积层计算得到与fi相同大小的五个相应尺度的光流特征pi,i=1,2,3,4,5;将光流特征pi与外观特征fi相乘,计算公共特征,再将公共特征与外观特征fi按元素相加,得到含有运动信息的特征图,并传入特征金字塔网络;
步骤二:对特征金字塔网络提取的特征图进行检测,得到当前图片上检测到的目标信息D1={d1,d2,d3,…},其中每个d包含{class,score,box,mask,offset},class代表该目标类别,在本发明中,只对行人进行检测,scores代表检测的置信度得分,box代表回归的边界框,mask代表分割掩码,offset表示该目标在下一帧上的偏移量;
步骤三:去除D1中置信度小于检测阈值θ的目标,并将检测集合D1进行基于分割掩码的非最大值抑制(Mask NMS)处理,结果检测初始化为活跃轨迹T={t1,t2,t3,…},删除的检测设为不活跃轨迹inactive_tracks={t1,t2,t3,…},并删除不活跃轨迹中存活时间大于max_age的轨迹;
步骤四:输入第二帧图片以及该图片相对于下一帧的光流特征,并重复步骤一和步骤二得到第二帧图片上的D;
步骤五:每个活跃轨迹t通过offset去计算在第二帧上可能出现的位置dp,如果dp置信度大于回归阈值λ的用于更新T中的轨迹,否则添加到不活跃的轨迹inactive_tracks;
步骤六:通过重识别(re-ID)网络分别提取D和T中对象的n=128维外观特征向量,并遍历循环计算外观特征向量的欧式距离
Figure BDA0003077717580000041
通过匈牙利算法进行匹配,D中成功匹配上的对象用于更新T中的对象,未成功匹配的对象再与不活跃轨迹Inactive_Track进行外观特征向量的匹配,成功匹配的轨迹添加到活跃轨迹中,D中仍未匹配的对象初始化为新的轨迹添加到T中,以此达到更新轨迹的目的;
步骤七:循环输入视频的下一帧,并重复步骤四和步骤五;
步骤八:对于每张图片上对象的分割结果,当出现某个像素点被分配给多个对象时,将该像素点分配给置信度得分更高的对象。
本实施例的方案将光流特征与神经网络提取的特征融合,并通过网络中的offset分支去预测目标在下一帧上的位置,以此增强网络对遮挡目标的检测能力。然后通过re-ID网络对目标进行关联,以此来更新轨迹。
如上所述,本专利实施的具体实现步骤使本发明更加清晰。在本发明的精神和权利要求的保护范围内,对本发明做出的任何修改和改变,都落入本发明的保护范围。

Claims (1)

1.一种基于条件卷积和光流特征的多目标跟踪与分割方法,其特征在于,所述方法包括如下步骤:
步骤一:输入当前帧图片,通过卷积神经网络提取当前图片五个不同尺度大小的外观特征fi,i=1,2,3,4,5,同时,输入当前图片相对于上一帧和下一帧的光流结果,通过下采样以及多个卷积层计算得到与fi相同大小的五个相应尺度的光流特征pi,i=1,2,3,4,5;将光流特征pi与外观特征fi相乘,计算公共特征,再将公共部分与外观特征fi按元素相加,得到含有运动信息的特征图,并传入特征金字塔网络;
步骤二:对特征金字塔网络提取的特征图进行检测,得到当前图片上检测到的目标信息D1={d1,d2,d3,…},其中每个d包含{class,score,box,mask,offset},class代表该目标类别,只对行人进行检测,scores代表检测的置信度得分,box代表回归的边界框,mask代表分割掩码,offset表示该目标在下一帧上的偏移量;
步骤三:去除D1中置信度小于检测阈值θ的目标,并将检测结果D1进行Mask NMS处理,剩下的对象初始化为活跃轨迹T={t1,t2,t3,…},删除的对象添加到不活跃轨迹inactive_tracks={t1,t2,t3,…},并删除不活跃轨迹中存活时间大于max_age的轨迹;
步骤四:输入第二帧图片以及该图片相对于下一帧的光流特征,并重复步骤一和步骤二得到第二帧图片上的D;
步骤五:轨迹T通过offset去计算在第二帧上可能出现的位置pred_Detection,pred_Detection中大于回归阈值λ的用于更新T中的轨迹,否则添加到不活跃的轨迹inactive_tracks;
步骤六:通过重识别(re-ID)网络分别提取D和T中对象的n=128维外观特征向量,并遍历循环计算外观特征向量的欧式距离
Figure FDA0003077717570000011
通过匈牙利算法进行匹配,D中成功匹配上的对象用于更新T中的对象,未成功匹配的对象再与不活跃轨迹Inactive_Track进行外观特征向量的匹配,成功匹配的轨迹添加到活跃轨迹中,D中仍未匹配的对象初始化为新的轨迹添加到T中,以此达到更新轨迹的目的;
步骤七:循环输入视频的下一帧,并重复步骤四和步骤五;
步骤八:对于每张图片上对象的分割结果,当出现某个像素点被分配给多个对象时,将该像素点分配给置信度得分更高的对象。
CN202110557528.9A 2021-05-21 2021-05-21 一种基于条件卷积和光流特征的多目标跟踪与分割方法 Active CN113379795B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110557528.9A CN113379795B (zh) 2021-05-21 2021-05-21 一种基于条件卷积和光流特征的多目标跟踪与分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110557528.9A CN113379795B (zh) 2021-05-21 2021-05-21 一种基于条件卷积和光流特征的多目标跟踪与分割方法

Publications (2)

Publication Number Publication Date
CN113379795A true CN113379795A (zh) 2021-09-10
CN113379795B CN113379795B (zh) 2024-03-22

Family

ID=77571600

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110557528.9A Active CN113379795B (zh) 2021-05-21 2021-05-21 一种基于条件卷积和光流特征的多目标跟踪与分割方法

Country Status (1)

Country Link
CN (1) CN113379795B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114091630A (zh) * 2022-01-24 2022-02-25 阿里巴巴达摩院(杭州)科技有限公司 获取目标对象移动轨迹信息的方法、装置及系统
WO2023083231A1 (en) * 2021-11-12 2023-05-19 Huawei Technologies Co., Ltd. System and methods for multiple instance segmentation and tracking
CN118397038A (zh) * 2024-06-24 2024-07-26 中南大学 基于深度学习的运动目标分割方法、系统、设备及介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020155873A1 (zh) * 2019-02-02 2020-08-06 福州大学 一种基于深度表观特征和自适应聚合网络的多人脸跟踪方法
CN111914664A (zh) * 2020-07-06 2020-11-10 同济大学 基于重识别的车辆多目标检测和轨迹跟踪方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020155873A1 (zh) * 2019-02-02 2020-08-06 福州大学 一种基于深度表观特征和自适应聚合网络的多人脸跟踪方法
CN111914664A (zh) * 2020-07-06 2020-11-10 同济大学 基于重识别的车辆多目标检测和轨迹跟踪方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023083231A1 (en) * 2021-11-12 2023-05-19 Huawei Technologies Co., Ltd. System and methods for multiple instance segmentation and tracking
US12033307B2 (en) 2021-11-12 2024-07-09 Huawei Technologies Co., Ltd. System and methods for multiple instance segmentation and tracking
CN114091630A (zh) * 2022-01-24 2022-02-25 阿里巴巴达摩院(杭州)科技有限公司 获取目标对象移动轨迹信息的方法、装置及系统
CN118397038A (zh) * 2024-06-24 2024-07-26 中南大学 基于深度学习的运动目标分割方法、系统、设备及介质
CN118397038B (zh) * 2024-06-24 2024-09-03 中南大学 基于深度学习的运动目标分割方法、系统、设备及介质

Also Published As

Publication number Publication date
CN113379795B (zh) 2024-03-22

Similar Documents

Publication Publication Date Title
CN111640140B (zh) 目标跟踪方法、装置、电子设备及计算机可读存储介质
CN110660082B (zh) 一种基于图卷积与轨迹卷积网络学习的目标跟踪方法
CN113379795A (zh) 一种基于条件卷积和光流特征的多目标跟踪与分割方法
CN110288627B (zh) 一种基于深度学习和数据关联的在线多目标跟踪方法
Lin et al. ReCF: Exploiting response reasoning for correlation filters in real-time UAV tracking
CN112507859B (zh) 一种用于移动机器人的视觉跟踪方法
CN111354022B (zh) 基于核相关滤波的目标跟踪方法及系统
CN114926859B (zh) 一种结合头部跟踪的密集场景下行人多目标跟踪方法
Ding et al. 3dmotformer: Graph transformer for online 3d multi-object tracking
CN111127519A (zh) 一种双模型融合的目标跟踪控制系统及其方法
Silva et al. Monocular trail detection and tracking aided by visual SLAM for small unmanned aerial vehicles
Saleh et al. Artist: Autoregressive trajectory inpainting and scoring for tracking
Weng et al. Sequential forecasting of 100,000 points
Wang et al. Effective multiple pedestrian tracking system in video surveillance with monocular stationary camera
CN111739066A (zh) 一种基于高斯过程的视觉定位方法、系统及存储介质
Lotfi et al. Robust object tracking based on recurrent neural networks
CN118038341A (zh) 多目标跟踪方法、装置、计算机设备以及存储介质
CN118189959A (zh) 一种基于yolo姿态估计的无人机目标定位方法
Pérez-Cutiño et al. Event-based human intrusion detection in UAS using deep learning
CN117392417A (zh) 一种基于语义拓扑结构的视觉slam相似度方法
Guo et al. Global-Local MAV Detection Under Challenging Conditions Based on Appearance and Motion
Zhang et al. A reliable unmanned aerial vehicle multi-target tracking system with global motion compensation for monitoring Procapra przewalskii
Liu et al. Online multi-object tracking under moving unmanned aerial vehicle platform based on object detection and feature extraction network
Ju et al. Online multi-object tracking based on hierarchical association framework
Guclu et al. Rgb-d indoor mapping using deep features

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant