CN112767447A - 基于深度霍夫优化投票的时敏单目标跟踪方法、存储介质和终端 - Google Patents

基于深度霍夫优化投票的时敏单目标跟踪方法、存储介质和终端 Download PDF

Info

Publication number
CN112767447A
CN112767447A CN202110097823.0A CN202110097823A CN112767447A CN 112767447 A CN112767447 A CN 112767447A CN 202110097823 A CN202110097823 A CN 202110097823A CN 112767447 A CN112767447 A CN 112767447A
Authority
CN
China
Prior art keywords
target
template
representing
point
search
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110097823.0A
Other languages
English (en)
Inventor
杨玺
钱伟中
曾一芳
张梓豪
雷航
王旭鹏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN202110097823.0A priority Critical patent/CN112767447A/zh
Publication of CN112767447A publication Critical patent/CN112767447A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Abstract

本发明公开了基于深度霍夫优化投票的时敏单目标跟踪方法、存储介质和终端,方法包括:提取模板点云Ptemp和搜索点云Psea的几何特征,并生成模板种子点集Q和搜索种子点集R;通过计算Q和R的相似度矩阵T将目标信息编码到搜索空间中,生成搜索种子点集D;编码后的搜索种子点dj通过投票产生对应的潜在目标中心点cj,并基于置信度得分B从潜在目标中心C中筛选出具有高置信度的潜在目标中心E;采样和聚集高可信度的潜在目标中心E,产生K个提议,具有最高得分的提议作为最终的预测结果Φ;基于前一帧目标的预测结果更新模板点云Ptemp。本发明可以高效稳定地对场景中的时敏单目标进行持续跟踪,得到单目标连续的运动轨迹。

Description

基于深度霍夫优化投票的时敏单目标跟踪方法、存储介质和 终端
技术领域
本发明涉及目标跟踪领域,尤其涉及基于深度霍夫优化投票的时敏单目标跟踪方法、存储介质和终端。
背景技术
基于点云数据的三维时敏单目标跟踪是自动驾驶和机器人视觉等相关领域应用的基础。现有的三维目标跟踪方法大都继承二维目标跟踪中的经验,对于RGB信息有很强的依赖性。但是当环境因素变化导致RGB信息退化时,这些方法的性能会变得很差甚至失效。三维点云数据描述场景的几何信息,其采集过程不受光照变化的影响,相较于RGB信息更适用于目标跟踪任务。然而,三维点云数据的不规则性、无序性和稀疏性导致传统二维目标跟踪的方法(如基于孪生神经网络的算法)无法直接应用,为三维时敏单目标跟踪带来巨大的挑战。
发明内容
本发明的目的在于克服现有技术的不足,提供一种基于深度霍夫优化投票的时敏单目标跟踪方法、存储介质和终端。
本发明的目的是通过以下技术方案来实现的:
本发明的第一方面,提供基于深度霍夫优化投票的时敏单目标跟踪方法,包括以下步骤:
使用PointNet++网络提取模板点云Ptemp和搜索点云Psea的几何特征,并生成模板种子点集Q和搜索种子点集R;通过计算Q和R的相似度矩阵T将目标信息编码到搜索空间中,生成编码了目标信息的搜索种子点集D;
编码后的搜索种子点dj通过投票产生对应的潜在目标中心点cj,并基于置信度得分B从潜在目标中心C中筛选出具有高置信度的潜在目标中心E;
采样和聚集高可信度的潜在目标中心E,产生K个提议,具有最高得分的提议作为最终的预测结果Φ;
采用模板点云更新策略γ,基于前一帧目标的预测结果更新模板点云Ptemp
进一步地,所述使用PointNet++网络提取模板点云Ptemp和搜索点云Psea的几何特征,并生成模板种子点集Q和搜索种子点集R,包括:
向PointNet++网络输入模板点云
Figure BDA0002914620240000011
和搜索点云
Figure BDA0002914620240000012
得到模板种子点集
Figure BDA0002914620240000013
和搜索种子点集
Figure BDA0002914620240000014
其中M1代表模板种子点集Q中种子点的数量,M2代表搜索种子点集R中种子点的数量,qi和rj分别代表模板种子点和搜索种子点,由三维坐标
Figure BDA0002914620240000015
和特征
Figure BDA0002914620240000016
构成;
所述通过计算Q和R的相似度矩阵T将目标信息编码到搜索空间中,生成编码了目标信息的搜索种子点集D,包括:
使用余弦距离计算Q和R之间的相似度,生成相似度矩阵T=(M2,M1),计算公式如下所示:
Figure BDA0002914620240000021
其中,Tj,i是T中的第j行,表示了rj与Q中所有种子点的相似度;
使用Q的空间坐标和特征增强,每个Tj,i得到一个大小为M1×(1+3+d1)的张量;通过包括多层感知机络和最大池化的操作ψ得到rj的特定目标特征
Figure BDA0002914620240000022
最后,通过合并的三维坐标
Figure BDA0002914620240000023
和特定目标特征
Figure BDA0002914620240000024
生成编码目标信息的搜索种子点集
Figure BDA0002914620240000025
进一步地,所述编码后的搜索种子点dj通过投票产生对应的潜在目标中心点cj,并基于置信度得分B从潜在目标中心C中筛选出具有高置信度的潜在目标中心E,包括:
每个dj通过多层感知机预测出
Figure BDA0002914620240000026
Figure BDA0002914620240000027
以生成
Figure BDA0002914620240000028
其中
Figure BDA0002914620240000029
Figure BDA00029146202400000210
Figure BDA00029146202400000211
是指通过预测出的当前搜索种子点到目标中心的三维坐标偏移量,
Figure BDA00029146202400000212
是指通过预测出的当前搜索种子点到目标中心的特征偏移量;
每个dj通过多层感知机预测出一个置信度得分
Figure BDA00029146202400000213
在真实目标表面的种子点被认为是高置信度的,其余的被认为是低置信度的,总置信度得分为
Figure BDA00029146202400000214
根据置信度得分从潜在目标中心
Figure BDA00029146202400000215
中挑选出具有高置信度的潜在目标中心
Figure BDA00029146202400000216
其中,ek表示得分排名在前50%的种子点。
进一步地,采样和聚集高可信度的潜在目标中心E,产生K个提议,具有最高得分的提议作为最终的预测结果Φ,包括:
每个ek可以以R半径使用球查询来聚集生成一个簇Gk,其中Gk={el|||el-ek||2<R};
采用最远点采样从E中计算出大小为K的子集,作为簇中心生成K个簇;
最后,每个簇
Figure BDA00029146202400000217
通过包括多层感知机络和最大池化的操作ω得到提议得分St和提议Pt,选取具有最高得分的Pt来生成最后的预测结果Φ;
其中,
Figure BDA00029146202400000218
Figure BDA00029146202400000219
表示簇中心点到预测中心点的偏移,
Figure BDA00029146202400000220
表示X-Y平面的旋转角度;
Figure BDA00029146202400000221
其中
Figure BDA00029146202400000222
表示簇
Figure BDA00029146202400000223
中心点的三维坐标。
进一步地,所述采用模板点云更新策略γ,基于前一帧目标的预测结果更新模板点云Ptemp,包括:
在生成了当前帧的预测结果Φ后,基于模板点云更新策略γ,生成下一帧的模板点云,以适应目标外观的变化;即指定目标在第一帧的位置为模板点云,之后每一帧的模板点云通过融合第一帧的模板点云和前一帧预测的目标点云生成。
进一步地,所述方法还包括:
通过XXX损失函数Lreg来训练
Figure BDA0002914620240000031
通过交叉熵损失函数Lcla来训练置信度得分
Figure BDA0002914620240000032
通过交叉熵损失函数Lpro训练St;采用smooth-L1损失函数Lbox训练正样本提议中的Pt
总损失函数为:
L=Lreg1Lcla2Lpro3Lbox
进一步地,smooth-L1损失函数Lreg的定义为:
Figure BDA0002914620240000033
式中,Δgtj表示dj到目标中心的真实偏移量;
Figure BDA0002914620240000034
为指示函数,表示只训练在真实目标表面的种子点;Mts表示被训练点的数量;
交叉熵损失函数Lcla的定义为:
Figure BDA0002914620240000035
式中,yj表示第j个搜索种子点是否在目标上的标签,在目标上为1,不在目标上为0;bj表示第j个搜索种子点预测在目标上的概率;M2表示搜索种子点的数量;
交叉熵损失函数Lpro的定义为:
Figure BDA0002914620240000036
式中,
Figure BDA0002914620240000037
表示第t个簇中心点与目标中心的距离标签,当距离小于0.3m时为1,当距离大于0.6m时为0;St表示第t个簇预测的得分;K表示簇的数量;
smooth-L1损失函数Lbox的定义为:
Figure BDA0002914620240000038
式中,
Figure BDA0002914620240000039
表示
Figure BDA00029146202400000310
的簇中心到目标中心的真实偏移量;
Figure BDA00029146202400000311
表示目标在X-Y平面的真实旋转角度;
Figure BDA00029146202400000312
为指示函数,表示只训练簇中心与目标中心距离小于0.3m或者大于0.6m的簇;Mtg表示被训练簇的数量。
进一步地,损失函数的权重取值为:γ1=0.18,γ2=1.47,γ3=0.18。
本发明的第二方面,提供一种存储介质,其上存储有计算机指令,所述计算机指令运行时执行所述的基于深度霍夫优化投票的时敏单目标跟踪方法的步骤。
本发明的第三方面,提供一种终端,包括存储器和处理器,所述存储器上存储有可在所述处理器上运行的计算机指令,所述处理器运行所述计算机指令时执行所述的基于深度霍夫优化投票的时敏单目标跟踪方法的步骤。
本发明的有益效果是:
(1)在本发明一示例性实施例中,首先充分挖掘模板和搜索空间中目标的相似性,将目标模板中的信息有效地编码到搜索空间中,为目标跟踪提供高鉴别力的特征信息,同时该方法对点云的无序性和不规则性保持鲁棒;其次,把目标表面的每一个点回归到物体中心,再聚集目标的候选中心点生成提议,可以获取目标更多的全局信息,从而得到更加准确的检测结果;最后,以帧为单位,通过输入在一个时间序列下连续多帧的搜索空间点云和融合第一帧目标点云与前一帧预测目标点云的模板点云进行持续跟踪,从而可以高效稳定地对场景中的时敏单目标进行持续跟踪,得到单目标连续的运动轨迹(该方法既包含了目标在第一帧中的真实值,又结合了每一帧的预测结果。在目标物体外观发生改变时,通过融合改变过程中的每一帧中的预测目标点云,可以很好地适应目标形状的改变)。
(2)在本发明一示例性实施例中,公开了各个方法的具体实现方式。
附图说明
图1为本发明一示例性实施例提供的发明流程图。
具体实施方式
下面结合附图对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在本申请使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本申请。在本申请和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本文中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
应当理解,尽管在本申请可能采用术语第一、第二、第三等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本申请范围的情况下,第一信息也可以被称为第二信息,类似地,第二信息也可以被称为第一信息。取决于语境,如在此所使用的词语“如果”可以被解释成为“在……时”或“当……时”或“响应于确定”。
给定目标模板点云
Figure BDA0002914620240000051
和搜索点云
Figure BDA0002914620240000052
目标跟踪方法预测目标在搜索空间中的位置信息Φ。其中,N1代表模板点云中点的数量,N2代表搜索点云中点的数量,Φ由目标中心的坐标以及X-Y平面的旋转角度构成。
其中,搜索点云的定义可以是:在某一帧中,通过三维雷达扫描仪得到的待搜索空间中所有点构成的集合。(每个点由在空间中的三维坐标构成)
参见图1,图1示出了本发明的一示例性实施例提供的基于深度霍夫优化投票的时敏单目标跟踪方法,包括以下步骤:
使用PointNet++网络提取模板点云Ptemp和搜索点云Psea的几何特征,并生成模板种子点集Q和搜索种子点集R;通过计算Q和R的相似度矩阵T将目标信息编码到搜索空间中,生成编码了目标信息的搜索种子点集D;
编码后的搜索种子点dj通过投票产生对应的潜在目标中心点cj,并基于置信度得分B从潜在目标中心C中筛选出具有高置信度的潜在目标中心E;
采样和聚集高可信度的潜在目标中心E,产生K个提议,具有最高得分的提议作为最终的预测结果Φ;
采用模板点云更新策略γ,基于前一帧目标的预测结果更新模板点云Ptemp
具体地,在现有技术中,单个目标表面的点可以直接生成目标提议,但是由于单个目标表面的点只捕获了目标的局部信息,无法有效地描述目标的全局信息,所以无法得到目标在三维空间中精确的位置。
而在本示例性实施例中提出的基于优化的深度霍夫投票的跟踪方法,首先充分挖掘模板和搜索空间中目标的相似性,将目标模板中的信息有效地编码到搜索空间中,为目标跟踪提供高鉴别力的特征信息,同时该方法对点云的无序性和不规则性保持鲁棒;其次,把目标表面的每一个点回归到物体中心,再聚集目标的候选中心点生成提议,可以获取目标更多的全局信息,从而得到更加准确的检测结果;最后,以帧为单位,通过输入在一个时间序列下连续多帧的搜索空间点云和融合第一帧目标点云与前一帧预测目标点云的模板点云进行持续跟踪,从而可以高效稳定地对场景中的时敏单目标进行持续跟踪,得到单目标连续的运动轨迹(该方法既包含了目标在第一帧中的真实值,又结合了每一帧的预测结果。在目标物体外观发生改变时,通过融合改变过程中的每一帧中的预测目标点云,可以很好地适应目标形状的改变)。
该示例性实施例的方法充分挖掘模板和搜索空间中目标的相似性,有效应对点云的无序性和不规则性以及目标外观变化,能够高效稳定地对场景中的时敏单目标进行持续跟踪。能够筛选并编码目标局部信息,有效应对点云的稀疏性和目标运动过程中外观变化。
另外,需要说明的是,在一示例性实施例中,目标信息指的是在目标模板点云中对目标三维外观的描述。
具体地,从模板点云和搜索点云中提取种子点,采用面向目标的特征提取方法编码目标信息;然后,通过投票和筛选生成高置信度的潜在目标中心;之后,执行联合提议和验证生成预测结果;最后进行模板更新。
下述示例性实施例分别对上述四个步骤进行详细展开:
其中,面向目标的特征提取将模板中的目标信息编码到搜索空间中,充分挖掘搜索空间和模板中目标的几何相似性,为后续目标的跟踪提供高鉴别力的特征表示。首先通过PointNet++网络从目标模板点云和搜索空间点云中获取种子点集,然后利用模板中蕴含的目标信息,将搜索区域种子与目标特定特征结合。同时,该方法能够对模板点云的无序性和不规则性保持稳定。
更优地,在一示例性实施例中,如图1中的(a)部分可知,所述使用PointNet++网络提取模板点云Ptemp和搜索点云Psea的几何特征,并生成模板种子点集Q和搜索种子点集R,包括:
向PointNet++网络输入模板点云
Figure BDA0002914620240000061
和搜索点云
Figure BDA0002914620240000062
得到模板种子点集
Figure BDA0002914620240000063
(即图1中的(a)部分的M1×(3+d1),其中3+d1表示模板种子点的三维坐标
Figure BDA0002914620240000064
和特征
Figure BDA0002914620240000065
下同,不进行赘述)和搜索种子点集
Figure BDA0002914620240000066
(即图1中的(a)部分的M2×(3+d1)),其中M1代表模板种子点集Q中种子点的数量,M2代表搜索种子点集R中种子点的数量,qi和ri分别代表模板种子点和搜索种子点,由三维坐标
Figure BDA0002914620240000067
和特征
Figure BDA0002914620240000068
构成;
所述通过计算Q和R的相似度矩阵T将目标信息编码到搜索空间中,生成编码了目标信息的搜索种子点集D,包括:
为了把Q中的目标信息编码到R中,使用余弦距离计算Q和R之间的相似度,生成相似度矩阵T=(M2,M1)((即图1中的(a)部分M1×M2)),计算公式如下所示:
Figure BDA0002914620240000071
其中,Tj,i是T中的第j行,表示了rj与Q中所有种子点的相似度。
考虑到Q的无序性导致特征表示Tj,i不稳定,采用最大池化操作保证特征的唯一性。使用Q的空间坐标和特征增强,每个Tj,i得到一个大小为M1×(1+3+d1)的张量(即图中1中的(a)部分的特征融合);通过包括多层感知机络和最大池化的操作ψ得到rj的特定目标特征
Figure BDA0002914620240000072
(即图中1中的(a)部分的M2×d2);最后,通过合并的三维坐标
Figure BDA0002914620240000073
和特定目标特征
Figure BDA0002914620240000074
生成编码目标信息的搜索种子点集
Figure BDA0002914620240000075
(即图中1中的(a)部分的M2×(3+d2),3+d2指rj的三维坐标
Figure BDA0002914620240000076
和生成的特定目标特征
Figure BDA0002914620240000077
)。
对于通过投票和筛选生成高置信度的潜在目标中心的步骤,个编码了目标信息的搜索种子点dj可以直接生成一个目标提议,但是单个搜索种子点只捕获了有限的局部信息,无法得到准确的目标位置预测。因此,通过投票回归到潜在目标中心,再进行联合的提议和验证生成最终结果。每个dj生成一个置信度得分,根据得分排序取用前50%的dj进行联合提议和验证,以提高目标跟踪的精确度。
更优地,在一示例性实施例中,如图1中的(b)部分可知,所述编码后的搜索种子点dj通过投票产生对应的潜在目标中心点cj,并基于置信度得分B从潜在目标中心C中筛选出具有高置信度的潜在目标中心E,包括:
每个dj通过多层感知机预测出
Figure BDA0002914620240000078
Figure BDA0002914620240000079
以生成
Figure BDA00029146202400000710
(即图中1中的(b)部分的M2×(3+d2)),其中
Figure BDA00029146202400000711
Figure BDA00029146202400000712
是指通过预测出的当前搜索种子点到目标中心的三维坐标偏移量,
Figure BDA00029146202400000713
是指通过预测出的当前搜索种子点到目标中心的特征偏移量;
每个dj通过多层感知机预测出一个置信度得分
Figure BDA00029146202400000714
在真实目标表面的种子点被认为是高置信度的,其余的被认为是低置信度的,总置信度得分为
Figure BDA00029146202400000715
(即图中1中的(b)部分的M2×1);
根据置信度得分从潜在目标中心
Figure BDA00029146202400000716
中挑选出具有高置信度的潜在目标中心
Figure BDA00029146202400000717
(即图中1中的(b)部分的M2/2×(3+d2)),其中,ek表示得分排名在前50%的种子点。
需要说明的是,这里多层感知机是指在特征维度上共享卷积核的卷积操作。
更优地,在一示例性实施例中,如图1中的(c)部分可知,采样和聚集高可信度的潜在目标中心E,产生K个提议,具有最高得分的提议作为最终的预测结果Φ,包括:
每个ek可以以R半径使用球查询来聚集生成一个簇Gk,其中Gk={el|||el-ek||2<R}(即即图中1中的(c)部分的N1×(3+d2)等);
采用最远点采样从E中计算出大小为K的子集,作为簇中心生成K个簇;
最后,每个簇
Figure BDA0002914620240000081
通过包括多层感知机络和最大池化的操作ω得到提议得分St和提议Pt,选取具有最高得分的Pt来生成最后的预测结果Φ;
其中,
Figure BDA0002914620240000082
Figure BDA0002914620240000083
表示簇中心点到预测中心点的偏移,
Figure BDA0002914620240000084
表示X-Y平面的旋转角度;
Figure BDA0002914620240000085
其中
Figure BDA0002914620240000086
表示簇
Figure BDA0002914620240000087
中心点的三维坐标。
其中,为了学习该网络,定义簇中心点和目标中心点小于0.3m的提议作为正样本,簇中心点和目标中心点大于0.6m的提议作为负样本,其他提议不做处理。
更优地,在一示例性实施例中,如图1中的(d)部分可知,所述采用模板点云更新策略γ,基于前一帧目标的预测结果更新模板点云Ptemp,包括:
在生成了当前帧的预测结果Φ后,基于模板点云更新策略γ,生成下一帧的模板点云,以适应目标外观的变化;即指定目标在第一帧的位置为模板点云,之后每一帧的模板点云通过融合第一帧的模板点云和前一帧预测的目标点云生成。
具体来说,该方法通过拼接在第一帧和前一帧中目标三维框内的点云生成下一帧输入的模板点云。该方法既包含了目标在第一帧中的真实值,又结合了每一帧的预测结果。在目标物体外观发生改变时,通过融合改变过程中的每一帧中的预测目标点云,可以很好地适应目标形状的改变。
更优地,在一示例性实施例中,所述方法还包括:
通过smooth-L1损失函数Lreg来训练
Figure BDA0002914620240000088
通过交叉熵损失函数Lcla来训练置信度得分
Figure BDA0002914620240000089
通过交叉熵损失函数Lpro训练St;采用smooth-L1损失函数Lbox训练正样本提议中的Pt
总损失函数为:
L=Lreg1Lcla2Lpro3Lbox
更优地,在一示例性实施例中,smooth-L1损失函数Lreg的定义为:
Figure BDA00029146202400000810
式中,Δgtj表示dj到目标中心的真实偏移量;
Figure BDA00029146202400000811
为指示函数,表示只训练在真实目标表面的种子点;Mts表示被训练点的数量;
交叉熵损失函数Lcla的定义为:
Figure BDA0002914620240000091
式中,yj表示第j个搜索种子点是否在目标上的标签,在目标上为1,不在目标上为0;bj表示第j个搜索种子点预测在目标上的概率;M2表示搜索种子点的数量;
交叉熵损失函数Lpro的定义为:
Figure BDA0002914620240000092
式中,
Figure BDA0002914620240000093
表示第t个簇中心点与目标中心的距离标签,当距离小于0.3m时为1,当距离大于0.6m时为0;St表示第t个簇预测的得分;K表示簇的数量;
smooth-L1损失函数Lbox的定义为:
Figure BDA0002914620240000094
式中,
Figure BDA0002914620240000095
表示
Figure BDA0002914620240000096
的簇中心到目标中心的真实偏移量;
Figure BDA0002914620240000097
表示目标在X-Y平面的真实旋转角度;
Figure BDA0002914620240000098
为指示函数,表示只训练簇中心与目标中心距离小于0.3m或者大于0.6m的簇;Mtg表示被训练簇的数量。
更优地,在一示例性实施例中,损失函数的权重取值为:γ1=0.18,γ2=1.47,γ3=0.18,可以较好地平衡各个损失函数之间的影响。
通过在KITTI跟踪数据集上进行实验,本示例性实施例提出的方法在成功率和精准度上都显著优于当前最先进的方法,并且可以在单个NVIDIA2080S图形处理器上以43.5FPS运行。同时具有较低的计算复杂度。
基于上述任意一示例性实施例,本发明的一示例性实施例提供一种存储介质,其上存储有计算机指令,所述计算机指令运行时执行所述的基于深度霍夫优化投票的时敏单目标跟踪方法的步骤。
基于上述任意一示例性实施例,本发明的一示例性实施例提供一种终端,包括存储器和处理器,所述存储器上存储有可在所述处理器上运行的计算机指令,所述处理器运行所述计算机指令时执行所述的基于深度霍夫优化投票的时敏单目标跟踪方法的步骤。
基于这样的理解,本实施例的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该软件产品存储在一个存储介质中,包括若干指令用以使得装置执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-OnlyMemory,ROM)、随机存取存储器(RandomAccessMemory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
显然,上述实施例仅仅是为清楚地说明所作的举例,而并非对实施方式的限定,对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其他不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。而由此所引申出的显而易见的变化或变动仍处于本发明创造的保护范围之中。

Claims (10)

1.基于深度霍夫优化投票的时敏单目标跟踪方法,其特征在于:包括以下步骤:
使用PointNet++网络提取模板点云Ptemp和搜索点云Psea的几何特征,并生成模板种子点集Q和搜索种子点集R;通过计算Q和R的相似度矩阵T将目标信息编码到搜索空间中,生成编码了目标信息的搜索种子点集D;
编码后的搜索种子点dj通过投票产生对应的潜在目标中心点cj,并基于置信度得分B从潜在目标中心C中筛选出具有高置信度的潜在目标中心E;
采样和聚集高可信度的潜在目标中心E,产生K个提议,具有最高得分的提议作为最终的预测结果Φ;
采用模板点云更新策略γ,基于前一帧目标的预测结果更新模板点云Ptemp
2.根据权利要求1所述的基于深度霍夫优化投票的时敏单目标跟踪方法,其特征在于:所述使用PointNet++网络提取模板点云Ptemp和搜索点云Psea的几何特征,并生成模板种子点集Q和搜索种子点集R,包括:
向PointNet++网络输入模板点云
Figure FDA0002914620230000011
和搜索点云
Figure FDA0002914620230000012
得到模板种子点集
Figure FDA0002914620230000013
和搜索种子点集
Figure FDA0002914620230000014
其中M1代表模板种子点集Q中种子点的数量,M2代表搜索种子点集R中种子点的数量,qi和rj分别代表模板种子点和搜索种子点,由三维坐标
Figure FDA0002914620230000015
和特征
Figure FDA0002914620230000016
构成;
所述通过计算Q和R的相似度矩阵T将目标信息编码到搜索空间中,生成编码了目标信息的搜索种子点集D,包括:
使用余弦距离计算Q和R之间的相似度,生成相似度矩阵T=(M2,M1),计算公式如下所示:
Figure FDA0002914620230000017
其中,Tj,i是T中的第j行,表示了rj与Q中所有种子点的相似度;
使用Q的空间坐标和特征增强,每个Tj,i得到一个大小为M1×(1+3+d1)的张量;通过包括多层感知机络和最大池化的操作ψ得到rj的特定目标特征
Figure FDA0002914620230000018
最后,通过合并的三维坐标
Figure FDA0002914620230000019
和特定目标特征
Figure FDA00029146202300000110
生成编码目标信息的搜索种子点集
Figure FDA00029146202300000111
3.根据权利要求2所述的基于深度霍夫优化投票的时敏单目标跟踪方法,其特征在于:所述编码后的搜索种子点dj通过投票产生对应的潜在目标中心点cj,并基于置信度得分B从潜在目标中心C中筛选出具有高置信度的潜在目标中心E,包括:
每个dj通过多层感知机预测出
Figure FDA0002914620230000021
Figure FDA0002914620230000022
以生成
Figure FDA0002914620230000023
其中
Figure FDA0002914620230000024
Figure FDA0002914620230000025
Figure FDA0002914620230000026
是指通过预测出的当前搜索种子点到目标中心的三维坐标偏移量,
Figure FDA0002914620230000027
是指通过预测出的当前搜索种子点到目标中心的特征偏移量;
每个dj通过多层感知机预测出一个置信度得分
Figure FDA0002914620230000028
在真实目标表面的种子点被认为是高置信度的,其余的被认为是低置信度的,总置信度得分为
Figure FDA0002914620230000029
根据置信度得分从潜在目标中心
Figure FDA00029146202300000210
中挑选出具有高置信度的潜在目标中心
Figure FDA00029146202300000211
其中,ek表示得分排名在前50%的种子点。
4.根据权利要求3所述的基于深度霍夫优化投票的时敏单目标跟踪方法,其特征在于:采样和聚集高可信度的潜在目标中心E,产生K个提议,具有最高得分的提议作为最终的预测结果Φ,包括:
每个ek可以以R半径使用球查询来聚集生成一个簇Gk,其中Gk={el|||el-ek||2<R};
采用最远点采样从E中计算出大小为K的子集,作为簇中心生成K个簇;
最后,每个簇
Figure FDA00029146202300000212
通过包括多层感知机络和最大池化的操作ω得到提议得分St和提议Pt,选取具有最高得分的Pt来生成最后的预测结果Φ;
其中,
Figure FDA00029146202300000213
Figure FDA00029146202300000214
表示簇中心点到预测中心点的偏移,
Figure FDA00029146202300000215
表示X-Y平面的旋转角度;
Figure FDA00029146202300000216
其中
Figure FDA00029146202300000217
表示簇
Figure FDA00029146202300000218
中心点的三维坐标。
5.根据权利要求1所述的基于深度霍夫优化投票的时敏单目标跟踪方法,其特征在于:所述采用模板点云更新策略γ,基于前一帧目标的预测结果更新模板点云Ptemp,包括:
在生成了当前帧的预测结果Φ后,基于模板点云更新策略γ,生成下一帧的模板点云,以适应目标外观的变化;即指定目标在第一帧的位置为模板点云,之后每一帧的模板点云通过融合第一帧的模板点云和前一帧预测的目标点云生成。
6.根据权利要求4所述的基于深度霍夫优化投票的时敏单目标跟踪方法,其特征在于:所述方法还包括:
通过smooth-L1损失函数Lreg来训练
Figure FDA00029146202300000219
通过交叉熵损失函数Lcla来训练置信度得分
Figure FDA00029146202300000220
通过交叉熵损失函数Lpro训练St;采用smooth-L1损失函数Lbox训练正样本提议中的Pt
总损失函数为:
L=Lreg1Lcla2Lpro3Lbox
7.根据权利要求6所述的基于深度霍夫优化投票的时敏单目标跟踪方法,其特征在于:smooth-L1损失函数Lreg的定义为:
Figure FDA0002914620230000031
式中,Δgtj表示dj到目标中心的真实偏移量;
Figure FDA0002914620230000032
为指示函数,表示只训练在真实目标表面的种子点;Mts表示被训练点的数量;
交叉熵损失函数Lcla的定义为:
Figure FDA0002914620230000033
式中,yj表示第j个搜索种子点是否在目标上的标签,在目标上为1,不在目标上为0;bj表示第j个搜索种子点预测在目标上的概率;M2表示搜索种子点的数量;
交叉熵损失函数Lpro的定义为:
Figure FDA0002914620230000034
式中,
Figure FDA0002914620230000035
表示第t个簇中心点与目标中心的距离标签,当距离小于0.3m时为1,当距离大于0.6m时为0;St表示第t个簇预测的得分;K表示簇的数量;
smooth-L1损失函数Lbox的定义为:
Figure FDA0002914620230000036
式中,
Figure FDA0002914620230000037
表示
Figure FDA0002914620230000038
的簇中心到目标中心的真实偏移量;
Figure FDA0002914620230000039
表示目标在X-Y平面的真实旋转角度;
Figure FDA00029146202300000310
为指示函数,表示只训练簇中心与目标中心距离小于0.3m或者大于0.6m的簇;
Figure FDA00029146202300000311
表示被训练簇的数量。
8.根据权利要求6所述的基于深度霍夫优化投票的时敏单目标跟踪方法,其特征在于:损失函数的权重取值为:γ1=0.18,γ2=1.47,γ3=0.18。
9.一种存储介质,其上存储有计算机指令,其特征在于:所述计算机指令运行时执行权利要求1-8中任意一项所述的基于深度霍夫优化投票的时敏单目标跟踪方法的步骤。
10.一种终端,包括存储器和处理器,所述存储器上存储有可在所述处理器上运行的计算机指令,其特征在于,所述处理器运行所述计算机指令时执行权利要求1-8中任意一项所述的基于深度霍夫优化投票的时敏单目标跟踪方法的步骤。
CN202110097823.0A 2021-01-25 2021-01-25 基于深度霍夫优化投票的时敏单目标跟踪方法、存储介质和终端 Pending CN112767447A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110097823.0A CN112767447A (zh) 2021-01-25 2021-01-25 基于深度霍夫优化投票的时敏单目标跟踪方法、存储介质和终端

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110097823.0A CN112767447A (zh) 2021-01-25 2021-01-25 基于深度霍夫优化投票的时敏单目标跟踪方法、存储介质和终端

Publications (1)

Publication Number Publication Date
CN112767447A true CN112767447A (zh) 2021-05-07

Family

ID=75707156

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110097823.0A Pending CN112767447A (zh) 2021-01-25 2021-01-25 基于深度霍夫优化投票的时敏单目标跟踪方法、存储介质和终端

Country Status (1)

Country Link
CN (1) CN112767447A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113920498A (zh) * 2021-10-13 2022-01-11 河北工业大学 一种基于多层特征金字塔的点云3d物体检测方法
CN114882495A (zh) * 2022-04-02 2022-08-09 华南理工大学 一种基于上下文感知特征聚集的3d目标检测方法
CN115375731A (zh) * 2022-07-29 2022-11-22 大连宗益科技发展有限公司 一种关联点和体素的3d点云单目标跟踪方法及相关装置
CN116051633A (zh) * 2022-12-15 2023-05-02 清华大学 一种基于加权关系感知的3d点云目标检测方法及装置
CN116721270A (zh) * 2023-08-10 2023-09-08 泰安汉阳电子科技有限公司 一种用于智能水表的数据处理方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109446886A (zh) * 2018-09-07 2019-03-08 百度在线网络技术(北京)有限公司 基于无人车的障碍物检测方法、装置、设备以及存储介质
CN110264468A (zh) * 2019-08-14 2019-09-20 长沙智能驾驶研究院有限公司 点云数据标注、分割模型确定、目标检测方法及相关设备
CN110348310A (zh) * 2019-06-12 2019-10-18 西安工程大学 一种霍夫投票3d彩色点云识别方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109446886A (zh) * 2018-09-07 2019-03-08 百度在线网络技术(北京)有限公司 基于无人车的障碍物检测方法、装置、设备以及存储介质
CN110348310A (zh) * 2019-06-12 2019-10-18 西安工程大学 一种霍夫投票3d彩色点云识别方法
CN110264468A (zh) * 2019-08-14 2019-09-20 长沙智能驾驶研究院有限公司 点云数据标注、分割模型确定、目标检测方法及相关设备

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
CHARLES R. QI等: ""Deep Hough Voting for 3D Object Detection in Point Clouds"", 《2019 IEEE/CVF INTERNATIONAL CONFERENCE ON COMPUTER VISION》 *
HAOZHE QI ETC: ""P2B: Point-to-Box Network for 3D Object Tracking in Point Clouds"", 《COMPUTER SCIENCE》 *
SHAOQING REN等: ""Faster R-CNN: Towards Real-Time Object"", 《IEEE》 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113920498A (zh) * 2021-10-13 2022-01-11 河北工业大学 一种基于多层特征金字塔的点云3d物体检测方法
CN114882495A (zh) * 2022-04-02 2022-08-09 华南理工大学 一种基于上下文感知特征聚集的3d目标检测方法
CN114882495B (zh) * 2022-04-02 2024-04-12 华南理工大学 一种基于上下文感知特征聚集的3d目标检测方法
CN115375731A (zh) * 2022-07-29 2022-11-22 大连宗益科技发展有限公司 一种关联点和体素的3d点云单目标跟踪方法及相关装置
CN116051633A (zh) * 2022-12-15 2023-05-02 清华大学 一种基于加权关系感知的3d点云目标检测方法及装置
CN116051633B (zh) * 2022-12-15 2024-02-13 清华大学 一种基于加权关系感知的3d点云目标检测方法及装置
CN116721270A (zh) * 2023-08-10 2023-09-08 泰安汉阳电子科技有限公司 一种用于智能水表的数据处理方法
CN116721270B (zh) * 2023-08-10 2023-10-20 泰安汉阳电子科技有限公司 一种用于智能水表的数据处理方法

Similar Documents

Publication Publication Date Title
CN109360226B (zh) 一种基于时间序列多特征融合的多目标跟踪方法
US10650042B2 (en) Image retrieval with deep local feature descriptors and attention-based keypoint descriptors
CN112767447A (zh) 基于深度霍夫优化投票的时敏单目标跟踪方法、存储介质和终端
You et al. Pixel-level remote sensing image recognition based on bidirectional word vectors
CN107742102B (zh) 一种基于深度传感器的手势识别方法
CN112651995B (zh) 基于多功能聚合和跟踪模拟训练的在线多目标跟踪方法
CN108230291B (zh) 物体识别系统训练方法、物体识别方法、装置和电子设备
CN106815323B (zh) 一种基于显著性检测的跨域视觉检索方法
CN110443257B (zh) 一种基于主动学习的显著性检测方法
CN112884802A (zh) 一种基于生成的对抗攻击方法
CN110633727A (zh) 基于选择性搜索的深度神经网络舰船目标细粒度识别方法
CN115359366A (zh) 基于参数优化的遥感图像目标检测方法
Liu et al. Visual object tracking with partition loss schemes
CN115115825A (zh) 图像中的对象检测方法、装置、计算机设备和存储介质
CN114627156A (zh) 消费级无人机视频运动目标精准追踪方法
CN109558883B (zh) 叶片特征提取方法及装置
CN116071570A (zh) 一种室内场景下的3d目标检测方法
CN115082778A (zh) 一种基于多分支学习的宅基地识别方法及系统
CN113888603A (zh) 基于光流跟踪和特征匹配的回环检测及视觉slam方法
CN114677508A (zh) 一种基于动态滤波和逐点相关的点云实例语义分割方法
CN116152334A (zh) 图像处理方法及相关设备
CN113936246A (zh) 基于联合局部特征判别性学习的无监督目标行人重识别方法
CN113298850A (zh) 一种基于注意力机制与特征融合的目标跟踪方法及系统
Huang et al. Baggage image retrieval with attention-based network for security checks
CN116824306B (zh) 基于多模态元数据的笔石化石图像识别模型的训练方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20210507