CN111488795B - 应用于无人驾驶车辆的实时行人跟踪方法 - Google Patents

应用于无人驾驶车辆的实时行人跟踪方法 Download PDF

Info

Publication number
CN111488795B
CN111488795B CN202010159001.6A CN202010159001A CN111488795B CN 111488795 B CN111488795 B CN 111488795B CN 202010159001 A CN202010159001 A CN 202010159001A CN 111488795 B CN111488795 B CN 111488795B
Authority
CN
China
Prior art keywords
pedestrian
frame
matching
detection
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010159001.6A
Other languages
English (en)
Other versions
CN111488795A (zh
Inventor
王一晶
郑开辅
左志强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin University
Original Assignee
Tianjin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin University filed Critical Tianjin University
Priority to CN202010159001.6A priority Critical patent/CN111488795B/zh
Publication of CN111488795A publication Critical patent/CN111488795A/zh
Application granted granted Critical
Publication of CN111488795B publication Critical patent/CN111488795B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种应用于无人驾驶车辆的实时行人跟踪方法,步骤1:利用改进的SSD行人检测算法进行行人实时检测;步骤2:在Deep Sort多目标跟踪算法方法中把光流预测结果与卡尔曼滤波结果进行融合,预测行人状态;步骤3:使用卡尔曼滤波算法估计的状态和检测行人的状态之间的马氏距离来表示运动匹配度量;步骤4:使用一个预训练的卷积神经网络来计算检测框中行人的外观描述子;将该卷积神经网络在行人重识别数据集上进行训练,得到图像描述向量;步骤5:计算总的匹配度量;步骤6:引入级联匹配策略,优先匹配距离当前帧最近的帧中出现的行人;步骤7:进行跟踪对象的生存周期管理。本发明实现了为无人驾驶场景提供行人的状态信息。

Description

应用于无人驾驶车辆的实时行人跟踪方法
技术领域
本发明涉及无人驾驶环境感知技术领域,具体涉及一种基于Track-by-Detection策略的融合光流的Deep SORT多目标跟踪算法进行无人驾驶场景下的行人跟踪算法。
背景技术
无人驾驶系统利用感知层实时获取周围环境的信息,其中的故障物信息提供给决策与规划层使用。位于感知层的视觉系统用于检测出无人驾驶车辆当前感知范围内的运动障碍物包括车辆、行人等的位置信息与速度信息,同时,对每个运动障碍物进行唯一的ID标号,预测其运动状态,并确定运动轨迹,从而计算出车辆的可行驶区域。
行人的运动信息对于无人驾驶车辆的安全行驶起着至关重要的作用。基于深度学习的行人检测算法只对单帧图片进行处理,缺乏视频流前后帧中被检测行人的关联信息,在行人被短期遮挡时会丢失信息,这将会给决策和规划层带来极大的风险。因此,目标检测器必须引入基于视觉的多目标跟踪方法,利用视频流的上下文语义,补全目标被短期遮挡时的信息,为感知层提供更为准确的运动障碍物轨迹跟踪和更为鲁棒的运动信息预测。行人跟踪是目标跟踪中研究最多的一部分,由于行人是一个非刚体的目标,而且受外观和遮挡的影响较大,对行人检测与跟踪算法的研究具有很大的挑战性,在实际应用中具有更高的商业价值。
发明内容
针对现有技术的行人检测方法无法提供行人足够的动态信息,以及传统的在线跟踪方法没有充分地利用行人的特征信息等问题,本发明提出一种应用于无人驾驶车辆的实时行人跟踪方法,针对场景采用一种融合光流的Deep SORT行人跟踪算法;在卡尔曼滤波的线性预测部分融合基于光流的目标运动信息,同时,将改进的SSD实时行人检测算法作为Deep SORT模型中的行人检测部分,实现实时地行人跟踪对象的生存周期管理。
本发明的一种应用于无人驾驶车辆的实时行人跟踪方法,该方法包括以下步骤:
步骤1:设计行人检测网络,利用改进的SSD行人检测算法进行行人实时检测:该算法使用单个卷积神经网络,直接从原始图像得到边界框的坐标和行人的概率,具体描述为整个行人检测网络为一个全卷积神经网络,整体依据SSD架构进行,将SSD中的主干网络VGG更换为性能更加强大的残差网络ResNet,再使用SSD方法中的检测部分在多尺度特征图上进行分类和回归,即得到行人的类别概率以及其边界框的坐标描述;
步骤2:定义每个行人的状态变量,Xt的表达式如下:
Figure BDA0002405087710000021
其中,x,y分别表示对应检测框中心的坐标,γ表示宽高比,h表示检测框的高度,
Figure BDA0002405087710000022
分别表示它们各自的速度,t表示图像的帧数;
取边界框的坐标(x,y,γ,h)作为行人状态的直接观测变量,利用卡尔曼滤波算法和特征点光流法对行人状态进行估计;特征点选用Harris角点,在第t帧图像中对当前已有的N个跟踪目标进行预测时,对t-1帧的N个目标的边界框所对应的图像提取g个特征点的位置loc=[(x,y)1,...,(x,y)g],对所有的g个特征点运用光流法进行跟踪,求解得到对应特征点在像素级的运动矢量mov,即各个特征点的速度集合,表达式为:
mov=[(u,ν)1,...,(u,ν)g]
其中,g表示在使用光流法时所选取的对应特征点的个数,u,v表示各个特征点在横纵方向上瞬时速度的矢量描述;
计算得到对应特征点在第t帧的位置,表达式如下:
new_loc=[(x′,y′)1,...,(x′,y′)g]
(x′,y′)i=(x,y)i+(u,n)i,i=1,...,g
求解出一个变换矩阵来表示光流代表的运动,作为对跟踪目标的下一个边界框进行预测的跟踪框,构造光流特征点在两帧图像之间的运动变换矩阵,表达式如下:
AT=b
A和b具体形式为:
Figure BDA0002405087710000031
其中,T为变换矩阵;
利用最小二乘法求得变换矩阵T*,表达式如下:
T*=-(ATA)-1ATb
计算出变换矩阵之后,对t-1帧中N个跟踪行人检测框的四个顶点进行坐标变换即可得到新的检测框,即为光流法根据底层像素运动对图像中的动态障碍物所做出的运动估计,把该估计信息记做Xop
在Deep Sort多目标跟踪算法方法中把光流预测出的结果与卡尔曼滤波的结果进行融合,得到卡尔曼滤波融合光流预测出的行人状态,如下式所示:
Figure BDA0002405087710000032
其中,
Figure BDA0002405087710000033
表示t时刻卡尔曼滤波融合光流预测出的行人状态,
Figure BDA0002405087710000034
表示t时刻卡尔曼滤波预测出的行人状态,Xop表示为光流法根据底层像素运动对图像中的行人运动状态的估计,λ表示卡尔曼滤波增益;
步骤3:计算运动匹配度量,即使用卡尔曼滤波算法估计的状态和新得到的检测行人的状态之间的马氏距离来表示运动匹配度量,其表达式如下:
d(1)(i,j)=(dj-yi)TSi -1(dj-yi)
其中,Si表示第i条轨迹由卡尔曼滤波器预测得到的在当前时刻观测空间的协方差矩阵,yi表示第i条轨迹在当前时刻预测的行人状态,dj表示第j个检测行人的状态,T表示转置符号;
通过将马氏距离按95%的置信区间的卡方检验中计算,排除不可能的关联;指示函数定义如下:
Figure BDA0002405087710000041
其中,如果第i条轨道与第j个检测结果之间的关联是可接受的,则其值为1;对于四维测量空间,相应的马氏距离的阈值为t(1)=9.4877;
步骤4:定义外观匹配度量;
对每一个检测框dj计算一个外观描述子rj(||rj||=1),并且为每条轨迹保留了最后Lk=100个相关外观描述子的图库
Figure BDA0002405087710000042
则外观匹配度量表示外观空间中第i条轨迹和第j个检测结果之间的最小余弦距离,表达式如下:
Figure BDA0002405087710000043
其中,
Figure BDA0002405087710000044
表示检测框dj的外观描述子向量的转置、
Figure BDA0002405087710000045
表示第i条轨迹中的第k个相关的外观描述子。
同样,定义一个指示函数来指示根据外观匹配度量是否允许关联,表达式如下:
Figure BDA0002405087710000046
在一个单独的训练数据集上为这个指示函数1找到一个合适的阈值t(2)
使用一个预训练的卷积神经网络来计算检测框中行人的外观描述子;将该卷积神经网络在行人重识别数据集上进行训练,同时将行人的图像作为网络的输入,得到图像的描述向量,即该图像中行人的外观描述子;
步骤5:计算总的匹配度量;
使用加权和将运动匹配度量和外观匹配度量结合起来,从而构建组合关联度量ci,j表达式如下:
ci,j=λd(1)(i,j)+(1-λ)d(2)(i,j)
其中,通过超参数λ控制各度量对组合关联度量的影响,如果组合关联度量ci,j位于两个度量的选通区域,则作为可接受的,将选通区域表示为:
Figure BDA0002405087710000051
步骤6:通过总的匹配度量公式得到总的代价矩阵D,再通过级联条件,设定阈值分别对外观和位置因素进行计算,满足条件则返回1,否则返回0。初始化匹配矩阵为空,初始化未匹配矩阵等于D;通过匈牙利算法,对于每个属于追踪框集合中的元素,在检测框里面查找代价最低且满足阈值过滤条件的检测框作为匹配结果,同时更新匹配矩阵和非匹配矩阵;优先匹配距离当前帧最近的帧中出现的行人作为最优的匹配结果;
步骤7:进行跟踪对象的生存周期管理:
如果有未匹配到的检测框,并且该检测框与所有跟踪对象IoU值都小于某个阈值,且在之后3帧内连续匹配成功,则建立该跟踪对象;如果某个跟踪对象连续30帧内都没有匹配成功,则删除该跟踪对象;匹配成功,则删除该跟踪对象。
与已有技术相比,本发明的技术特点与效果:
1、相比较其他传统的目标跟踪方法,基于Track-by-Detection策略的在线多目标跟踪算法具有较高的实时性和较强的鲁棒性,符合无人驾驶场景对算法的要求;
2、实现了无人驾驶场景中为决策和规划层提供行人的状态信息;
3、利用图像信息本身的特点,在卡尔曼滤波的线性预测部分,融合基于光流的行人运动信息,使得预测的边界框能够更加贴近行人的外观。
附图说明
图1为改进的SSD行人检测算法模型示意图;
图2为行人跟踪过程示意图;
图3为本发明的一种应用于无人驾驶车辆的实时行人跟踪方法整体流程图。
附图标记:
1、2为边界框,3为检测框。
具体实施方式
以下结合附图及实施例对本发明的技术方案进行进一步的说明,但不作为本发明的限制。
本发明的应用于无人驾驶车辆的实时行人跟踪方法,基于Track-by-Detection策略的在线多目标跟踪算法,提出一种融合光流的Deep SORT实时行人跟踪算法,具体实施步骤如下:
步骤1:设计行人检测网络,利用改进的SSD行人检测算法进行行人实时检测:该算法使用单个卷积神经网络,直接从原始图像得到边界框的坐标和行人的概率,具体描述为整个行人检测网络为一个全卷积神经网络,整体依据SSD架构进行,将SSD中的主干网络VGG更换为性能更加强大的残差网络ResNet,再使用SSD方法中的检测部分在多尺度特征图上进行分类和回归,即得到行人的类别概率以及其边界框的坐标描述;
步骤2:定义每个行人的状态变量,状态变量Xt的表达式如下:
Figure BDA0002405087710000061
其中,x,y分别表示对应检测框中心的坐标,γ表示宽高比,h表示检测框的高度,
Figure BDA0002405087710000071
表示它们各自的速度,t表示图像的帧数;
取检测框的坐标(x,y,γ,h)作为行人状态的直接观测变量,利用卡尔曼滤波算法和特征点光流法对行人状态进行估计;特征点选用Harris角点,在第t帧图像中对当前已有的N个跟踪目标进行预测时,对t-1帧的N个目标的边界框所对应的图像提取g个特征点的位置loc=[(x,y)1,...,(x,y)g],对所有的g个特征点运用光流法进行跟踪,求解得到对应特征点在像素级的运动mov,即各特征点的速度集合,表达式为:
mov=[(u,ν)1,...,(u,ν)g] (2)
其中,g表示在使用光流法时所选取的对应特征点的个数,u,v表示各个特征点在横纵方向上瞬时速度的矢量描述。
计算得到对应特征点在第t帧的位置,表达式如下:
new_loc=[(x′,y′)1,...,(x′,y′)g] (3)
(x′,y′)i=(x,y)i+(u,n)i,i=1,...,g (4)
求解出一个变换矩阵来表示光流代表的运动,作为对跟踪目标的下一个边界框进行预测的跟踪框,构造光流特征点在两帧图像之间的运动变换矩阵,表达式如下:
AT=b (5)
A和b具体形式为:
Figure BDA0002405087710000072
其中,T为变换矩阵;
利用最小二乘法求得变换矩阵T*,表达式如下:
T*=-(ATA)-1ATb (7)
计算出变换矩阵之后,对t-1帧中N个跟踪行人检测框的四个顶点进行坐标变换即可得到新的检测框,即为光流法根据底层像素运动对图像中的动态障碍物所做出的运动估计,把该估计信息记做Xop
在Deep Sort多目标跟踪算法方法中把光流预测出的结果与卡尔曼滤波的结果进行融合,得到卡尔曼滤波融合光流预测出的行人状态,如下式所示:
Figure BDA0002405087710000081
其中,
Figure BDA0002405087710000082
表示t时刻卡尔曼滤波融合光流预测出的行人状态,
Figure BDA0002405087710000083
表示t时刻卡尔曼滤波预测出的行人状态,Xop表示为光流法根据底层像素运动对图像中的行人运动状态的估计,λ表示卡尔曼滤波增益;
步骤3:计算运动匹配度量,即使用卡尔曼滤波算法估计的状态和新得到的检测行人的状态之间的马氏距离来表示运动匹配度量,其表达式如下:
d(1)(i,j)=(dj-yi)TSi -1(dj-yi) (9)
其中,Si表示第i条轨迹由卡尔曼滤波器预测得到的在当前时刻观测空间的协方差矩阵,yi表示第i条轨迹在当前时刻预测的行人状态,dj表示第j个检测行人的状态,T表示矩阵的转置;
考虑到运动的连续性,通过将马氏距离按95%的置信区间的卡方检验中计算,可以排除不可能的关联。指示函数定义如下:
Figure BDA0002405087710000084
其中,如果第i条轨道与第j个检测结果之间的关联是可接受的,则其值为1;对于四维测量空间,相应的马氏距离的阈值为t(1)=9.4877;
步骤4:定义外观匹配度量;
对每一个检测框dj计算一个外观描述子rj(||rj||=1),并且为每条轨迹保留了最后Lk=100个相关外观描述子的图库
Figure BDA0002405087710000091
则外观匹配度量表示外观空间中第i条轨迹和第j个检测结果之间的最小余弦距离,表达式如下:
Figure BDA0002405087710000092
其中,
Figure BDA0002405087710000093
表示检测框dj的外观描述子向量的转置、
Figure BDA0002405087710000094
表示第i条轨迹中的第k个相关的外观描述子。
同样,定义一个指示函数来指示根据外观匹配度量是否允许关联,表达式如下:
Figure BDA0002405087710000095
在一个单独的训练数据集上为这个指示函数1找到一个合适的阈值t(2)
使用一个预训练的卷积神经网络来计算检测框中行人的外观描述子。将该卷积神经网络在行人重识别数据集上进行训练,同时将行人的图像作为网络的输入,得到图像的描述向量;
在步骤4中,使用一个预训练的卷积神经网络来计算检测框中行人的外观描述子。将该卷积神经网络在行人重识别数据集上进行训练,同时将行人的图像作为网络的输入,得到图像的描述向量;
步骤5:计算总的匹配度量;
使用加权和将运动匹配度量和外观匹配度量结合起来,从而构建组合关联度量ci,j表达式如下:
ci,j=λd(1)(i,j)+(1-λ)d(2)(i,j) (13)
其中,通过超参数λ控制各度量对组合关联度量的影响。如果组合关联度量ci,j位于两个度量的选通区域,则称其为可接受的,将选通区域表示为:
Figure BDA0002405087710000101
步骤6:分配问题;
利用匈牙利匹配算法来解决卡尔曼滤波算法估计的状态和新得到的检测行人状态之间的关联度。匈牙利匹配算法的度量结合了行人运动信息和外观信息。通过总的匹配度量公式得到总的代价矩阵D,再通过级联条件,设定阈值分别对外观和位置因素进行计算,满足条件则返回1,否则返回0。初始化匹配矩阵为空,初始化未匹配矩阵等于D。通过匈牙利算法,对于每个属于追踪框集合中的元素,在检测框里面查找代价最低且满足阈值过滤条件的检测框作为匹配结果,同时更新匹配矩阵和非匹配矩阵。优先匹配距离当前帧最近的帧中出现的行人作为最优的匹配结果;
步骤7:跟踪对象的生存周期管理;
如果有未匹配到的检测框,并且该检测框与所有跟踪对象IoU值都小于某个阈值,且在之后3帧内连续匹配成功,则建立该跟踪对象。如果某个跟踪对象连续30帧内都没有匹配成功,则删除该跟踪对象。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (1)

1.一种应用于无人驾驶车辆的实时行人跟踪方法,其特征在于,该方法包括以下步骤:
步骤1:设计行人检测网络,利用改进的SSD行人检测算法进行行人实时检测:该算法使用单个卷积神经网络,直接从原始图像得到边界框的坐标和行人的概率,具体描述为整个行人检测网络为一个全卷积神经网络,整体依据SSD架构进行,将SSD中的主干网络VGG更换为性能更加强大的残差网络ResNet,再使用SSD方法中的检测部分在多尺度特征图上进行分类和回归,即得到行人的类别概率以及其边界框的坐标描述;
步骤2:定义每个行人的状态变量,Xt的表达式如下:
Figure FDA0002405087700000011
其中,x,y分别表示对应检测框中心的坐标,γ表示宽高比,h表示检测框的高度,
Figure FDA0002405087700000012
分别表示它们各自的速度,t表示图像的帧数;
取边界框的坐标(x,y,γ,h)作为行人状态的直接观测变量,利用卡尔曼滤波算法和特征点光流法对行人状态进行估计;特征点选用Harris角点,在第t帧图像中对当前已有的N个跟踪目标进行预测时,对t-1帧的N个目标的边界框所对应的图像提取g个特征点的位置loc=[(x,y)1,...,(x,y)g],对所有的g个特征点运用光流法进行跟踪,求解得到对应特征点在像素级的运动矢量mov,即各个特征点的速度集合,表达式为:
mov=[(u,ν)1,...,(u,ν)g]
其中,g表示在使用光流法时所选取的对应特征点的个数,u,v表示各个特征点在横纵方向上瞬时速度的矢量描述;
计算得到对应特征点在第t帧的位置,表达式如下:
new_loc=[(x′,y′)1,...,(x′,y′)g]
(x′,y′)i=(x,y)i+(u,n)i,i=1,...,g
求解出一个变换矩阵来表示光流代表的运动,作为对跟踪目标的下一个边界框进行预测的跟踪框,构造光流特征点在两帧图像之间的运动变换矩阵,表达式如下:
AT=b
A和b具体形式为:
Figure FDA0002405087700000021
其中,T为变换矩阵;
利用最小二乘法求得变换矩阵T*,表达式如下:
T*=-(ATA)-1ATb
计算出变换矩阵之后,对t-1帧中N个跟踪行人检测框的四个顶点进行坐标变换即可得到新的检测框,即为光流法根据底层像素运动对图像中的动态障碍物所做出的运动估计,把该估计信息记做Xop
在Deep Sort多目标跟踪算法方法中把光流预测出的结果与卡尔曼滤波的结果进行融合,得到卡尔曼滤波融合光流预测出的行人状态,如下式所示:
Figure FDA0002405087700000022
其中,
Figure FDA0002405087700000023
表示t时刻卡尔曼滤波融合光流预测出的行人状态,
Figure FDA0002405087700000024
表示t时刻卡尔曼滤波预测出的行人状态,Xop表示为光流法根据底层像素运动对图像中的行人运动状态的估计,λ表示卡尔曼滤波增益;
步骤3:计算运动匹配度量,即使用卡尔曼滤波算法估计的状态和新得到的检测行人的状态之间的马氏距离来表示运动匹配度量,其表达式如下:
d(1)(i,j)=(dj-yi)TSi -1(dj-yi)
其中,Si表示第i条轨迹由卡尔曼滤波器预测得到的在当前时刻观测空间的协方差矩阵,yi表示第i条轨迹在当前时刻预测的行人状态,dj表示第j个检测行人的状态,T表示转置符号;
通过将马氏距离按95%的置信区间的卡方检验中计算,排除不可能的关联;指示函数定义如下:
Figure FDA0002405087700000031
其中,如果第i条轨道与第j个检测结果之间的关联是可接受的,则其值为1;对于四维测量空间,相应的马氏距离的阈值为t(1)=9.4877;
步骤4:定义外观匹配度量;
对每一个检测框dj计算一个外观描述子rj(||rj||=1),并且为每条轨迹保留了最后Lk=100个相关外观描述子的图库
Figure FDA0002405087700000032
则外观匹配度量表示外观空间中第i条轨迹和第j个检测结果之间的最小余弦距离,表达式如下:
Figure FDA0002405087700000033
其中,
Figure FDA0002405087700000034
表示检测框dj的外观描述子向量的转置、
Figure FDA0002405087700000035
表示第i条轨迹中的第k个相关的外观描述子,
同样,定义一个指示函数来指示根据外观匹配度量是否允许关联,表达式如下:
Figure FDA0002405087700000036
在一个单独的训练数据集上为这个指示函数1找到一个合适的阈值t(2)
使用一个预训练的卷积神经网络来计算检测框中行人的外观描述子;将该卷积神经网络在行人重识别数据集上进行训练,同时将行人的图像作为网络的输入,得到图像的描述向量,即该图像中行人的外观描述子;
步骤5:计算总的匹配度量;
使用加权和将运动匹配度量和外观匹配度量结合起来,从而构建组合关联度量ci,j表达式如下:
ci,j=ld(1)(i,j)+(1-l)d(2)(i,j)
其中,通过超参数l控制各度量对组合关联度量的影响,如果组合关联度量ci,j位于两个度量的选通区域,则作为可接受的,将选通区域表示为:
Figure FDA0002405087700000041
步骤6:通过总的匹配度量公式得到总的代价矩阵D,再通过级联条件,设定阈值分别对外观和位置因素进行计算,满足条件则返回1,否则返回0, 初始化匹配矩阵为空,初始化未匹配矩阵等于D;通过匈牙利算法,对于每个属于追踪框集合中的元素,在检测框里面查找代价最低且满足阈值过滤条件的检测框作为匹配结果,同时更新匹配矩阵和非匹配矩阵;优先匹配距离当前帧最近的帧中出现的行人作为最优的匹配结果;
步骤7:进行跟踪对象的生存周期管理:
如果有未匹配到的检测框,并且该检测框与所有跟踪对象IoU值都小于某个阈值,且在之后3帧内连续匹配成功,则建立该跟踪对象;如果某个跟踪对象连续30帧内都没有匹配成功,则删除该跟踪对象;匹配成功,则删除该跟踪对象。
CN202010159001.6A 2020-03-09 2020-03-09 应用于无人驾驶车辆的实时行人跟踪方法 Active CN111488795B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010159001.6A CN111488795B (zh) 2020-03-09 2020-03-09 应用于无人驾驶车辆的实时行人跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010159001.6A CN111488795B (zh) 2020-03-09 2020-03-09 应用于无人驾驶车辆的实时行人跟踪方法

Publications (2)

Publication Number Publication Date
CN111488795A CN111488795A (zh) 2020-08-04
CN111488795B true CN111488795B (zh) 2022-12-02

Family

ID=71811711

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010159001.6A Active CN111488795B (zh) 2020-03-09 2020-03-09 应用于无人驾驶车辆的实时行人跟踪方法

Country Status (1)

Country Link
CN (1) CN111488795B (zh)

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112116629A (zh) * 2020-08-11 2020-12-22 西安交通大学 一种使用全局响应图的端到端的多目标跟踪方法
CN112085767B (zh) * 2020-08-28 2023-04-18 安徽清新互联信息科技有限公司 一种基于深度光流跟踪的客流统计方法及系统
CN112215080B (zh) * 2020-09-16 2022-05-03 电子科技大学 一种利用时序信息的目标跟踪方法
CN112070048B (zh) * 2020-09-16 2022-08-09 福州大学 基于RDSNet的车辆属性识别方法
CN113205108A (zh) * 2020-11-02 2021-08-03 哈尔滨理工大学 一种基于YOLOv4的多目标车辆检测跟踪方法
CN112541424A (zh) * 2020-12-07 2021-03-23 南京工程学院 复杂环境下行人跌倒的实时检测方法
CN112446436A (zh) * 2020-12-11 2021-03-05 浙江大学 基于生成对抗网络的抗模糊无人驾驶车辆多目标跟踪方法
CN112633205A (zh) * 2020-12-28 2021-04-09 北京眼神智能科技有限公司 基于头肩检测的行人追踪方法及装置、电子设备、存储介质
CN112784725B (zh) * 2021-01-15 2024-06-07 北京航天自动控制研究所 行人防撞预警方法、设备、存储介质及堆高机
CN112818771B (zh) * 2021-01-19 2024-06-11 江苏大学 一种基于特征聚合的多目标跟踪算法
CN112734809B (zh) * 2021-01-21 2024-07-05 高新兴科技集团股份有限公司 基于Deep-Sort跟踪框架的在线多行人跟踪方法及装置
CN112785627A (zh) * 2021-02-02 2021-05-11 电子科技大学 一种基于重识别技术的多目标跟踪方法
CN112836640B (zh) * 2021-02-04 2024-04-19 浙江工业大学 一种单摄像头多目标行人跟踪方法
CN112836684B (zh) * 2021-03-09 2023-03-10 上海高德威智能交通系统有限公司 基于辅助驾驶的目标尺度变化率计算方法、装置及设备
CN112884816B (zh) * 2021-03-23 2023-12-15 武汉理工大学 一种基于图像系统的车辆特征深度学习识别轨迹跟踪方法
CN113192105B (zh) * 2021-04-16 2023-10-17 嘉联支付有限公司 一种室内多人追踪及姿态估量的方法及装置
CN113160274A (zh) * 2021-04-19 2021-07-23 桂林电子科技大学 一种基于YOLOv4的改进DeepSort目标检测跟踪方法
CN113223045B (zh) * 2021-05-19 2024-06-11 北京数研科技发展有限公司 基于动态物体语义分割的视觉与imu传感器融合定位系统
CN113269098B (zh) * 2021-05-27 2023-06-16 中国人民解放军军事科学院国防科技创新研究院 一种基于无人机的多目标跟踪定位与运动状态估计方法
CN113256690B (zh) * 2021-06-16 2021-09-17 中国人民解放军国防科技大学 一种基于视频监控的行人多目标跟踪方法
CN113822153B (zh) * 2021-08-11 2024-09-06 桂林电子科技大学 一种基于改进DeepSORT算法的无人机跟踪方法
CN113963432A (zh) * 2021-09-09 2022-01-21 上海智逍遥机器人有限公司 一种基于双目立体视觉机器人跟随行人的方法
CN114037950B (zh) * 2021-10-26 2024-07-02 武汉大学 一种基于行人和头部检测的多行人跟踪方法及装置
CN116263961A (zh) * 2021-12-10 2023-06-16 富士通株式会社 视频处理装置、视频处理方法和机器可读存储介质
CN113936042B (zh) * 2021-12-16 2022-04-05 深圳佑驾创新科技有限公司 一种目标跟踪方法、装置和计算机可读存储介质
CN114049382B (zh) * 2022-01-12 2023-04-18 华砺智行(武汉)科技有限公司 一种智能网联环境下目标融合跟踪方法、系统和介质
CN114170561B (zh) * 2022-02-14 2022-05-06 盈嘉互联(北京)科技有限公司 一种应用于智能建筑的机器视觉行为意图预测方法
CN114690177A (zh) * 2022-03-31 2022-07-01 重庆长安汽车股份有限公司 一种自动驾驶的目标关联方法、系统及电子设备
CN114550219B (zh) * 2022-04-06 2022-07-08 南京甄视智能科技有限公司 行人追踪方法及装置
CN116128932B (zh) * 2023-04-18 2023-07-25 无锡学院 一种多目标跟踪方法
CN117037500B (zh) * 2023-10-10 2023-12-22 蘑菇车联信息科技有限公司 非结构化道路下小目标轨迹预测方法、设备、介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107292911A (zh) * 2017-05-23 2017-10-24 南京邮电大学 一种基于多模型融合和数据关联的多目标跟踪方法
CN109682378A (zh) * 2018-12-20 2019-04-26 南京航空航天大学 一种完全基于视觉信息的无人机室内定位与多目标跟踪方法
CN110378259A (zh) * 2019-07-05 2019-10-25 桂林电子科技大学 一种面向监控视频的多目标行为识别方法及系统
CN110415277A (zh) * 2019-07-24 2019-11-05 中国科学院自动化研究所 基于光流和卡尔曼滤波的多目标追踪方法、系统、装置
CN110490901A (zh) * 2019-07-15 2019-11-22 武汉大学 抗姿态变化的行人检测跟踪方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107292911A (zh) * 2017-05-23 2017-10-24 南京邮电大学 一种基于多模型融合和数据关联的多目标跟踪方法
CN109682378A (zh) * 2018-12-20 2019-04-26 南京航空航天大学 一种完全基于视觉信息的无人机室内定位与多目标跟踪方法
CN110378259A (zh) * 2019-07-05 2019-10-25 桂林电子科技大学 一种面向监控视频的多目标行为识别方法及系统
CN110490901A (zh) * 2019-07-15 2019-11-22 武汉大学 抗姿态变化的行人检测跟踪方法
CN110415277A (zh) * 2019-07-24 2019-11-05 中国科学院自动化研究所 基于光流和卡尔曼滤波的多目标追踪方法、系统、装置

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
"A robust and efficient pedestrian detection approach for autonomous driving";Yijing Wang 等;《2019 Chinese control conference》;20191031;全文 *
"Multi-camera vehiclet tracking and re-identification based on visual and spatial-temporal features";Xiao Tan 等;《CVPR》;20191231;全文 *
"Multi-person tracking algorithm based on data association";Yi Zhang 等;《Optik》;20191031;全文 *
"基于模型融合和特征关联的视频目标跟踪算法";季露 等;《计算机技术与发展》;20180207;全文 *
"基于深度学习的多目标跟踪技术研究";张巍;《中国优秀硕士学位论文全文数据库信息科技辑》;20200115;全文 *
"智能视频监控系统中的目标检测和多目标跟踪技术研究";杨磊;《中国优秀硕士学位论文全文数据库信息科技辑》;20200215;全文 *

Also Published As

Publication number Publication date
CN111488795A (zh) 2020-08-04

Similar Documents

Publication Publication Date Title
CN111488795B (zh) 应用于无人驾驶车辆的实时行人跟踪方法
CN111693972B (zh) 一种基于双目序列图像的车辆位置与速度估计方法
CN109636829B (zh) 一种基于语义信息和场景信息的多目标跟踪方法
Xu et al. Segment as points for efficient online multi-object tracking and segmentation
Wojek et al. Monocular visual scene understanding: Understanding multi-object traffic scenes
CN110415277B (zh) 基于光流和卡尔曼滤波的多目标追踪方法、系统、装置
JP7078021B2 (ja) 物体検出装置、物体検出方法及び物体検出用コンピュータプログラム
CN111881749B (zh) 基于rgb-d多模态数据的双向人流量统计方法
Brehar et al. Pedestrian street-cross action recognition in monocular far infrared sequences
Hu et al. Learning a deep cascaded neural network for multiple motion commands prediction in autonomous driving
CN111666860A (zh) 一种车牌信息与车辆特征融合的车辆轨迹跟踪方法
CN113092807B (zh) 基于多目标跟踪算法的城市高架道路车辆测速方法
US20220129685A1 (en) System and Method for Determining Object Characteristics in Real-time
CN114926859B (zh) 一种结合头部跟踪的密集场景下行人多目标跟踪方法
CN115205339A (zh) 基于改进yolox的移动机器人目标跟随方法
Hao et al. Multiple person tracking based on slow feature analysis
CN118033622A (zh) 目标跟踪方法、装置、设备及计算机可读存储介质
Zhang et al. Spatiotemporal adaptive attention 3D multiobject tracking for autonomous driving
CN116434150B (zh) 面向拥挤场景的多目标检测跟踪方法、系统及存储介质
Liu et al. Multi-target tracking with hierarchical data association using main-parts and spatial-temporal feature models
Lu et al. Hybrid deep learning based moving object detection via motion prediction
CN115100565B (zh) 一种基于空间相关性与光流配准的多目标跟踪方法
CN115731287B (zh) 基于集合与拓扑空间的运动目标检索方法
Zhang et al. An efficient and flexible approach for multiple vehicle tracking in the aerial video sequence
Wang et al. Top-Down Meets Bottom-Up for Multi-Person Pose Estimation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant